IT之家 4 月 3 日消息,据外媒 TechSpot 本周三报道,美国加利福尼亚大学伯克利分校和旧金山分校的研究人员开发了一种脑机接口系统,能够恢复重度瘫痪患者的自然语言表达,为失去语言能力的人群提供了实时沟通的新希望。
研究团队利用 AI 的进展,成功解决了个体有意说话与发出声音之间的时间差。该系统通过流式传输技术,几乎实时地将神经信号解码为可听见的语言。
加利福尼亚大学伯克利分校的副教授、该研究的联合首席研究员戈帕拉・阿努曼奇帕利(Gopala Anumanchipalli)解释道:“我们的流式传输方法将 Alexa 和 Siri 等设备的快速语音解码能力引入到神经假体中。通过使用类似的算法,我们发现能够解码神经数据,并首次实现几乎同步的语音流传输,最终得到了更自然、流畅的语音合成。”
这一技术对改善 ALS(渐冻症)或中风后瘫痪患者的生活具有巨大潜力。据IT之家了解,该系统通过采集来自大脑运动皮层的神经数据,并利用 AI 解码这些活动,生成语音。
在一项临床试验中,研究人员对 47 岁的安(Ann)进行了测试。安在 18 年前中风后失去了语言能力,她通过脑部植入电极记录大脑活动,默默尝试说出屏幕上显示的句子。通过一个训练有安受伤前声音的 AI 模型,研究人员成功地将这些信号解码为可听见的语言。
这一方法的关键突破之一是实现了近乎实时的语音合成。以往的脑机接口系统解码单个句子时通常会有高达八秒的延迟,而这项新方法大大减少了延迟。研究人员能在不到一秒的时间内,从意图信号中得到第一个声音。