CSF和UC Berkeley的研究人员开发了一种可植入的AI驱动设备……

CSF和UC Berkeley的研究人员开发了一种可植入的AI驱动设备……
2023年08月25日 12:11 互联网的那点事
CSF和UC Berkeley的研究人员开发了一种可植入的AI驱动设备,首次将大脑信号转化为语音和面部表情。一位由于中风失去说话能力的女士借助该技术,能够通过一个数字化虚拟形象来说话和传达情感。该研究已在《自然》杂志上发表。30岁的Ann因脑干中风失去了身体所有肌肉的控制能力,甚至无法呼吸。经过多年的物理治疗,她的面部肌肉得到了一定的恢复,但仍无法说话。这是首次从大脑信号合成语音或面部表情。该系统还可以将这些信号解码为文本,速度达到每分钟近80个单词,远远超过她目前的通信设备每分钟14个单词的速度。研究人员通过在Ann的大脑表面植入253个电极,捕获了原本将发送到她的嘴唇、舌头、下颚和喉咙以及面部的肌肉的大脑信号。然后,Ann与团队合作训练人工智能算法识别她的大脑信号。此外,该团队还使用语言学习AI和2005年Ann的婚礼演讲录音,重建了Ann的声音,并通过软件模拟和动画化面部肌肉运动,为Ann的化身增添了面部和声音。这一突破性研究的重要下一步是创建无线版本,使Ann不需要与脑机接口物理连接。研究人员使用了一种称为CTC损失的机器学习优化技术,将大脑信号映射到离散单位,然后将这些离散单位合成为语音。他们还扩展到更自然的沟通模式,如语音和面部表情。研究人员的下一步计划是减少延迟,使过程对参与者感觉像实时,并考虑将设备微型化,使其成为一个独立设备,类似于心脏起搏器。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部