打破智能语音技术壁垒,炬芯用芯助力新交互
谈到智能语音,早已不是什么新鲜的事情,国外有苹果Siri,微软小娜,Google Assistant,亚马逊的Alexa这样的智能语音大咖。国内有灵犀助手(科大讯飞),小度(百度),小爱同学(小米)这样的后来跟进者。
首次接触智能语音的用户,会觉得很神奇,觉得这东西怎么可以如此智能。而对于经常使用的老用户来说,智能语音助手的鸡肋日益显现,因为现阶段的智能语音基本都是采用数据库匹配的原则,对于云端数据库中没有的知识,智能语音也只能“呵呵”了。想必大家都还记得,雷军同志在2019年的发布会上,演示小爱智能音箱时出现的多次“车祸”现场。不难看出的是,智能语音设备的拾音技术依然收外界许多因素干扰,进步和优化空间巨大。但,对于技术来说,我们应该永远怀着宽容和理解的态度去对待,因为任何一门技术都是一个不断积累和迭代的过程。
对于大部分人来说,目前接触体验最多的智能语音硬件应该只有智能音箱和智能机器人。只有通过智能硬件与云端数据中心的默契配合,才有可能让智能语音交互形成完整通路。语音交互的大致流程可分为:声音采集—>降噪—>语音唤醒—>语音转文字—>语义理解—>回复文字和指令—>文字转声音—>播放声音。以下天猫精灵智能音箱为例,将语音交互完整步骤做逐步分解。
1.用户说“天猫精灵,今天天气怎么样?”;2、“天猫精灵”被语音唤醒模块接收到,并判断为唤醒词,然后通过AI芯片和硬件拾取和记录“今天天气怎么样”这段语音,并发送给云端服务器;3、服务器把收集到的电脑信号,再次转化成文字“今天天气怎么样”,交给语义理解服务器;语义理解服务器把“今天天气怎么样”这段文字,拆解成“事件=查询天气,时间=今天”这段控制指令回传给设备。4、设备根据时间和本机地理位置,找天气服务器查询天气,并获得天气的的文本数据“今天要下雨”;5、设备把“今天要下雨”这几个字发给文字转声音的服务器,服务器返回“今天要下雨”这段声音,由设备喇叭播放出来。
毋庸置疑的是,以上五个步骤都是由智能音箱的硬件和云端的数据中心配合完成的,硬件只要负责声音的拾取和传达,云端则用丰富的数据资源去匹配用户的需求,二者缺一不可。相对来说,声音前处理技术则是智能硬件最最重要的部分,主要体现降噪和拾音效果两方面,唤醒以及与机器对话的时候都需要拾音,而且拾音还有近距离和远距离之说,如果连最基本的声音都没有听清和听懂,谈何后面的数据传达和解析呢。
声音的前处理技术,是声音没有进入传输、没有存储之前的处理。声音前处理目的,就是让声音的存储、传输效率更高,识别率更好(例如回声消除、降噪、声音活动检测等等)。声音的后处理技术,是声音经过存储之后进行播放的同时处理。是对音源例如 MP3 等媒体解码播放的声音进音效增强处理(例如虚拟重低音、环绕立体声、高音增强、EQ 等等)。如何将人的声音有效传达至机器,让机器“听到”、“听清”且“听懂”? “听懂”之后又改如何与云端的数据进行精准匹配,最终反馈给用户真正想要的需求动作?这将是智能语音声音前处理技术和声音后处理技术应该思考和努力解决的问题。国内耕耘声音20余年,在声音前处理技术方面已经处于领先地位的国产芯片原厂炬芯科技从2018年开始就在核心主推的双麦克风阵列智能语音芯片,已经在各大品牌智能音箱、早教机器人、绘本机器人、物联网中控等产品上完美落地,强大的声音前处理技术为完美智能语音体验保驾护航。后续将推出更高端的ATS3609D等高端语音及视频交互解决方案,对声音的耕耘炬芯将永无止境。
目前,国家正在加快人工智能的产业布局,发布多项利好政策促进人工智能产业发展;5G时代的来临更是为人工智能的发展培育了一片物联网沃土。我们可以预见,智能语音作为下一代人机交互的新入口,将率先在这片人工智能的沃土上生根发力,推动整个产业的茁壮成长。如想让让智能语音产品做到真正的聪明,智能硬件(包括主控芯片和各种IC)和语音助手(云端数据中心)都需要再升级,不断打通人和机器之间对话的技术壁垒,让人与机器中间的沟通变成真正的“面对面”沟通。