前段时间的苹果开发者大会上,苹果公司为AirPods Pro公布了全新“空间音频”功能,并称该空间音频功能支持5.1/7. 1 音源和杜比音效,且能通过内置的陀螺仪感应头部的移动,来实时跟踪和同步各个方向的声场。
空间音频对于多数人来说并不是一个陌生的东西,其基础就是源于模拟7.1声道的电竞耳机。随着fps游戏引燃了电竞市场“听音辨位”这一需求,通过算法带来更精确位置感的声音算法技术也越来越受到耳机厂商们的重视。随着市场逐渐饱和,厂商们又开始在新的方向上寻求突破,比如苹果这次更新的空间音频就是通过陀螺仪将声场锁死的方式,通过算法为用户改变声场方位感。然而这种通过直接渲染输出声音的方式真的是我们追求的真实现场的临场感吗?笔者的答案是否定的。
空间音频≠真实现场
作为一个资深的PUBG咸鱼玩家,笔者深知模拟真实的临场感对玩家的重要性。苹果把空间音频功能的重心放在“头部追踪+锁声场”上。从听感的角度来说,只要人头位置不变,该功能的效果等于不存在。在人头位置不变时,开启这项功能带来的音质改变类似EQ效果,至于对音质的影响是正面还是负面也很难有定论。因此,AirPods Pro音质会提升这件事情显然只是炒作,信他个鬼。
反观该功能的实际应用,空间音频这项功能真的有意义吗?玩游戏时1s不盯着屏幕都有可能暴毙、看电影的时候转头也有可能错过场景。更糟糕的是,如果开启空间音频,用户在玩游戏的时候一旦头部方向不正甚至会直接导致方向感出现问题,可见其很有可能带来成事不足、败事有余的体验。
再者说,让观看画面的用户头部转动,手机、电脑端的画面并不是像VR游戏那样随着人体转动而变化的。这种体验就好比井底之蛙,即使换个角度能听到其他方的声音,却也只能看到一成不变的画面,这与真实的临场感绝对是背道而驰的。
如何获得真实的临场感?这还要从人耳声源定位开始说起
人耳朵分辨声音的方向的方式主要分为两类,一类是声音到两耳朵的时间差、一类是声音到耳朵的音量差。
低频段的声波(20-1.5kHz)波长大于一般人头的直径,因此人在听到这个频段的声音时两耳感受到的音量是差不多的。在这个频段区间内,听觉中枢依据两耳声波的相位差来计算声源位置,从而给人脑递出方向信号。
高于2kHz的中高频声音的波长较低,无法绕过人头抵达对侧耳朵。这导致该声波在穿过人头部时强度会有所衰减,使人的两耳听起来声音不一样大。人耳通过大小不同的音量差可以精确的识别声音的方位,并给人脑递出方向信号。
同时,因为每个人的身材、头部大小、耳朵形状等生理因素,每个人的大脑会自行学习和适应。这意味着算法必须要因人而异,如果不能将每个人独有的生理因素计算在内,其效果也很难得到保障。
除了人耳对声源的定位,还有空间中的声音还会受回声、混响和扩散的影响
回声:声源发出的声波会向各个方向传播,有些声波会直接达到人耳,也就是我们所说的直达声。除此之外,还有一些声音会接触到墙壁、地面等物质结构上被在此发射,形成一个二次、三次甚至更多次的声源。如果这些反射声的延时相距直达声50ms以上,则称之为回声。要知道的值,在声音从左耳至右耳贯穿人头时,两耳听到声音的时间差在10us时即可被分辨。可见想要实现真实的临场感,回声相关的计算是必不可少的。
混响:声源在发出声音后,声音会在当前环境中的物质结构碰撞并反射。原声消失后,空间中仍然可以听到的声音就是混响,一般出现在房间内。混响是在电影、音乐、游戏中常见的声音渲染效果。
扩散:当声波撞击凸凹不平或呈球面状的表面时,声音会向物体内部分散或被扩散。扩散常用于用来减弱声音的反射,其受物体材料、形状、表面粗糙度、密度分布等影响较大,很多游戏内的声音听起来假的一部分原因,就是因为它们没有重视声音扩散的效果计算。
从人耳的声源定位,到回声、混响、扩散对声音的影响,可见想要实现完美的真实临场感,通过空间建模、将现实中影响声音的因素计算在内是必须的。如果声卡中能够出现类似显卡的“光线追踪”,让声卡能够实现“声音路径追踪”。如果有了追踪声音路径的技术,无论是模拟音乐现场、电影、游戏还是任何三次元中可能存在的音频,它都可以实现如同真实回放。这也是为什么笔者在标题中会说:声卡的终极形态其实是显卡。
当前主流显卡的算力拿来计算声音的效果绝对是够的,但是声音相关的技术算法还没有到位。至于未来会不会实现以及实际价值,只看有没有大厂愿意投钱去做这个事情了。没准哪天英伟达高管开始烧HiFi或VR的时候意识到这个问题,就把它做了呢~
写在最后
想要提升音质、带来真实的现场感,耳机产品面临的最大问题并非在于声场的方向上,而是在与耳机本身无法适应每个人独有的体态特征导致的差异化听感。想要解决它,只需像显卡一样针对个人体态特征建模似乎才是正确的手段。至于期待AirPods Pro的“空间音频”能给你带来如同身临其境听音体验的朋友,我劝你还是省省吧!有这钱,还是买HiFi耳机香一些。
评论