» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

[新闻] 看不出的创新,听得见的改变——谈 iPhone 5的通话性能提升

转自IAPPS

我写这篇东西是想谈谈 iPhone 5里,被主流中文媒体都严重忽略了的提升通话质量的新技术。
由于当天的发布会在介绍此项技术的时候,已接近 iPhone 5发布的尾声,而且因为是通过图文直播收看发布会,所以图文直播的主持人也不是那么容易(专业的)解释得清楚,都简单以“XX技术”翻译一下就这么过去了,所以在当时也并没有引起我的关注,不过在后来看发布会 Keynote 的时候才发现这是一套令人赞叹的独创的、完整的并且复杂的技术。由于 iPhone 5并未拿到手,以下我所讨论的一切,都是基于发布会本身的信息、过往行业内所做出的一些研究,加以个人的推断所得。如有错误,欢迎指正。

下面先介绍一下双麦克风降噪:
双麦克风降噪
目前为止,这是市面上大部分手机所采用的降噪方法(也包括中高端蓝牙耳机)。听名字就知道是有两个麦克风,第一个是位于手机底部的通话麦克风,作用是接收人的声音,但不可避免地因为周遭环境也收录了一些杂音。另外一个麦克风,往往处于手机(蓝牙耳机)最远离通话麦克风的地方,用于收录不含人声的现场环境音。用过 Cool Edit(已被 Adobe 收购,改名为 Audition)的朋友都知道,噪音消除就是利用一段同环境的不含人声的噪音,与含有人声和噪音的音频进行对比,从而找出相类似的信息,来去除音频里不被利用的环境杂音。而手机(蓝牙耳机)内部的芯片正是通过类似的方式进行实时处理,从而达到降噪的效果。
但是这里就出现了问题。假设每个人手头上的手机都含有双麦克风降噪的功能,皆可输出一段相对纯净的人声音频,但那是否能保证我们就能够获得完美的通话效果呢?这显然不太可能。双麦降噪只是解决了音源的问题,在实际的通话过程中,还存在着通信传输失真(各位听听彩铃就知道了)、以及双方通话现场干扰的问题。就以上两个问题,苹果推出了“全频音效”(Wideband Audio)和“降噪听筒”(Noise-canceling earpiece)两项技术。按照发布会的描述,这两项技术如无意外能够把手机通话质量提高到业界最高水平。苹果也终于进一步提升了手机最本质的功能——通话。
三麦克风降噪与降噪听筒
苹果很巧妙得把第三个麦克风设计在了前面板听筒里面。那么第三个麦克风是用来干嘛的?


三麦克风(包括两个降噪,一个在后背镜头与闪光灯之间,一个暗藏在前面板听筒里)
第三个麦克风的主要作用便是在通话过程中,除听筒内声音以外,耳朵周边的现场噪音进行清除。讲的可能有点抽象,请看下面详解:


双降噪可以改善自身手机发送的音源质量,但不可以保证对方有一个很好的通话环境。诸位可以试试在 KTV 里打电话,估计没谁不是走出房间听的。这个时候,降噪听筒来了。它能让你在通话时只听到对方的声音,而所有来源于自己所在现场的噪音都会得到有效消除。这也并不是一个多么新颖的技术,拥有魔声录音师(Monster beats Studio)或者索尼 NW-Z1050(类似于 iPod touch)的朋友也应该知道了主动降噪这一名词。下面是一段来自百度百科的解释:
主动降噪功能就是通过降噪系统产生与外界噪音相等的反向声波,将噪音中和,从而实现降噪的效果。为了积极主动地消除噪声,人们发明了“有源消声”这一技术。它的原理是:所有的声音都由一定的频谱组成,如果可以找到一种声音,其频谱与所要消除的噪声完全一样,只是相位刚好相反(相差180°),就可以将这噪声完全抵消掉。关键就在于如何得到那抵消噪声的声音。实际采用的办法是:从噪声源本身着手,设法通过电子线路将原噪声的相位倒过来。

如果有朋友反应足够快的话,一定会觉得,其实这功能未必需要第二个降噪麦克风提供帮助,只需要机身后面的那一个就足够了。理论上确实是这样的,而且耳机一般也是这样处理的。但是,这里却牵涉到了另一个问题——混响。
人在使用手机打电话的时候,耳廓会贴着前面板(即听筒附近),这样便形成了一个相对密闭的听音环境,相当于一个圆锥的空间。因为隔音不彻底的缘故,外界的噪音进入这个小空间,并在耳廊和手机玻璃面板里聚集、反射,产生了新的混响。若是只是使用机身后侧的麦克风进行降噪的话,显然没有考虑到混响的影响。苹果很聪明地把第三个麦克风放在了听筒处,收录了这一空间里混响的环境音,再进行智能降噪。这样便可极大程度上保证接听通话内容的清晰度,把环境的影响降到了最低。
有人会问在通话的同时,对方说的话即听筒传输出来的声音,同样出现在了这个空间里面,那怎么这段声音怎么没有被相关降噪技术给“误降”掉了呢?我个人的猜测,苹果可能采取了间歇工作的方法,在我们自己讲话的时候第三个麦克风收录声音,在对方讲话的时候停止工作。也就是说这个部分的功能并非实时有效的,但由于环境音有一定的变化规律以及相对固定的频率范围,还是能够有效减低环境噪音对通话的影响。
第三个麦克风可能的另外一个用途——辅助 Siri 进行声音降噪。
下面讲讲另外一个问题的解决方案——全频音效

由于通讯技术的限制,通话传输过程中难免会出现频率范围过窄和声音不完整的情况(这个具体不是很了解,只是基于一些对声音理解而进行的推断),最终造成了声音失真。苹果推出的“全频音效”宣称,可以让声音更为自然,而非通常那种硬邦邦的失真声响。
说到音效,大家可能会想到的是均衡器,又或者是叫 EQ。EQ通常是对各种不同频率的音频信号进行调节,从而达到补偿扬声器的缺陷和修饰声源的效果。一般情况下,各大手机厂商也不会那么笨,明知通话质量不高,肯定会对听筒和声音进行 EQ 调节,这也确实能够稍微提高人声的表现。然而苹果这次动用了发布会的一分钟时间去介绍这样一个功能,必有其过人之处。而这次很有可能,不是一个单一的 EQ 设定,而是一个动态处理。它可能依据一些过往的数据,针对声音(男女声频段略有区分)运算处理出适当的补偿,丰富人声真实自然的感觉。大家不要忘了,苹果的 Siri 推出一年了。相信在 Siri 里头,也添加了不少声音处理的技术。因此全频音效很可能是一次技术的移植。
关于全频音效就说到这里吧,毕竟还没有人测试验证过,还是等机器上市的评测吧。
所以说,苹果从根本上给手机注入创新的理念,一连串地解决了通信的问题,提供了一套完整的通话解决方案。前阵子出了条新闻,说苹果放弃了原来的 Audience 的噪声过滤技术,可能就是这方面的原因?苹果推出的通话质量解决方案都是靠着自家的技术(含收购相关科技公司)慢慢完成的。凭借着过硬的硬件设备,性能翻倍的 A6处理器(打个电话这里又要降噪,那里又要处理提升音质,稍微弱点的搞不了),再次完美地融合了软硬件,做着最低调的产品创新。不可否认,iPhone 5是一部让人“失望”的 iPhone,但不变的,还是苹果对于完美的追求。

也有人认为全频音效实际上并不是靠声学补偿,而是真正的加大了带宽,提高了语音的频响范围,实现更加真实的语音。证据很简单,Keynote里说的是 要运营商配合实现的。目前的手机通话其实利用的还是2G的带宽,所以必须对声音进行特别强的压缩之后才能实时传输。但是既然现在3G、4G都有了,完全可以利用更高的带宽传输更优质,具有更高带宽的音频信号。这才是Wideband Audio的本意,这也解释了为什么苹果自己搞不定这个,必须喝运营商合作,因为更改手机通话的传输方式必须有运营商参与进来,这可能涉及到对大量基础设备设置的修改。

我个人认为很多人在看多了安卓系的硬件军备竞赛后已经迷失了方向,且不说iphone5的性能到底如何,衡量一部手机的品质绝不仅仅是cpu、gpu、内存、屏幕、外壳做工这些,这次iphone5的创新有很多是在看不到的地方,也许只有实际入手后才能一探究竟吧


TOP

也许一会就又会有苍蝇哼哼“摩托早有丽音技术,苹果再次发明听筒?”、“苹果靠声音又一次改变世界”,我觉得和借着爱国打砸抢烧的粪粪们没什么两样,唯恐天下不乱,无视之即可



TOP

降噪是本地处理,加宽音频通话的带宽就需要运营商支持了,这是两个技术


TOP

发新话题
     
官方公众号及微博