一单收购让Synaptics成为智能音箱背后的大赢家

2017-10-24 10:26:20 来源: 半导体行业观察
进入了万物互联的智能时代,传统的机械、遥控、手机软件等设备控制方式的短板日益凸显。为了让控制更方面,一场围绕音箱的全新人机交互革命正在上演,具体下来就是指包括Amazon、Google、苹果、小米和天猫等国内外巨头正在竞逐的智能音箱市场。
 
 
他们的想法就是通过给音箱引入语音识别、人工智能和各种API接口,让人可以和音箱“对话”,实现统一控制家里各种联网设备的目的。这种语音交互就给智能音箱提出了更好地拾音和降噪等新要求。
 
回看技术进化过程,语音交互这种形态最早大规模应用应该就是在以iPhone为代表的智能手机上。苹果设备的初用者一定对那个“有求必应”的Siri音箱深刻,而智能音箱就是手机语音交互的而延伸,但后者的解决方案却不适合前者。
 
智能手机上最初采用的基本是单麦克风方案。这种系统可以在低噪声、无混响、距离声源很近的情况下提供符合语音识别需求的声音信号,但是在声源很远、噪声很大、甚至有回声的情况下,这种方案就失灵了。于是业界转向了麦克风阵列寻求帮助,效果也似乎能达到预期。
 
传统麦克风阵列方案不能解决所有问题
 
但是日前在Synaptics举办的一场关于人机界面革新的媒体沟通会上,Synaptics副总裁兼语音和图像部门总经理Saleel Awsare表示,传统的麦克风阵列不能解决所有的音源问题。在探讨他的观点之前,我们先来了解一下什么是麦克风阵列。从概念上看,这是一种将一定数目的麦克风组合在一起,用来对声场的空间特性进行采样并处理的系统。
 
 
麦克风阵列可以实现语音增强、声源定位、去混响和声源信号提取等功能,能够大大提升识别指令发出者,辨别声源和降低噪声等功能。但现在普遍的麦克风阵列仍然存在不少问题:
 
首先,目前主流的阵列方案都是采用六到八个麦克风,这就带来了尺寸的问题。PCBA不能做小,就限制了设备的ID设计,牺牲了便携性;
 
其次,在麦克风和信号源距离过远的时候,录制信号的信噪比会变低,提升了算法处理的难度;
 
第三,智能音箱音乐声音太大的时候,很难唤醒智能语音助理。
 
造成这样的原因,这主要与麦克风阵列解决问题的方式有关,Saleel Awsare强调。他表示,现在的麦克风阵列都是采用波速成形解决拾音等问题,如果需要收集大量的声波数据,就需要更多的麦克风,无疑就限制了终端设备的尺寸。另外,这种传统的解决方案在多个声源的公共环境中,也会有误判的情况。再加上成本、功耗等挑战,麦克风阵列方案亟待升级。
 
独有技术解决语音交互痛点
 
Saleel Awsare在媒体会上告诉半导体行业观察记者,他们的技术能够完美解决智能音箱现有的问题。
 
在今年以前,大家对Synaptics的印象应该就是触控和指纹识别产品。但在经一系列的收购之后,这家成立于三十多年前,闻名于PC与智能手机市场的巨头成为物联网市场的新星,语音交互技术就是他的一块敲门砖。
 
 
依赖于其近乎独有的AudioSmart®技术,Synaptics很轻易地解决了上述传统麦克风阵列碰到的问题。Saleel Awsare表示 ,不同于其他供应商使用六个或更多麦克风的阵列,采用他们的AudioSmart®之后,开发者可以只用两个或四个麦克风的阵列,达成或超过竞争对手六个以上麦克风方案的效果,解决了智能音箱的语音输入的噪声、回声和干扰等各种问题。 
 
另外,由于方案里麦克风使用的减少,让客户可以把PCBA的面积做得更小,将产品功耗做得更低,这让它成为现在火热的智能音箱供应商的首选解决方案。据介绍,AudioSmart®的全球出货量已经超过了三千万,亚马逊和百度等知名企业也是他们的合作伙伴。
 
从公开资料我们可以看到,AudioSmart®是一个软硬件解决方案。硬件方主要的元器件就是DSP,通过在这个DSP上运行独有的软件,就能轻易达到降噪、降回声等目的,同时能用更少的麦克风,实现同样的目的。
 
盲源分离在当中产生了非常重要的作用,Saleel Awsare强调。
 
所谓盲源分离技术,是指在信号的理论模型和源信号无法精确获知的情况下,如何从混迭信号(观测信号)中分离出各源信号的过程。
 
Saleel Awsare认为,未来类似智能音箱这类的“家庭中控”一定是无处不在的,会被嵌入到几乎是所有设备中去。但随处可见的小设备对解决方案有严苛的要求,Synaptics的方案刚好能解决这些问题。

 
责任编辑:李寿鹏
半导体行业观察
摩尔芯闻

热门评论