研究人员称,电子游戏技术可以帮助瘫痪女性说话

2025-05-06 21:34来源:

据研究人员报道,视频游戏技术帮助一名中风后瘫痪的妇女重新说话。

总部位于爱丁堡的语音图形公司,以及加州大学旧金山分校和加州大学伯克利分校的美国研究人员表示,他们已经创造了世界上第一个脑机接口,可以通过电子方式从大脑信号中产生语音和面部表情。

这一发展为那些不会说话的人恢复自然交流开辟了一条道路。

专家们解释说,在《最后生还者2》和《霍格沃茨遗产》等游戏中用于驱动面部动画的软件,可以将脑电波转换成会说话的数字化身。

我们的目标是恢复一种完整的、具体化的交流方式,这是我们与他人交谈最自然的方式

这项研究能够将这个名叫安的女人的大脑信号解码成三种交流形式:文本、合成声音和数字化身上的面部动画,包括对口型和情感表达。

据研究人员称,这是首次通过大脑信号合成面部动画。

该团队由加州大学旧金山分校神经外科主任爱德华·张(Edward Chang)领导,他花了十年时间研究脑机接口。

他说:“我们的目标是恢复一种完整的、具体化的交流方式,这是我们与他人交谈最自然的方式。”

“这些进步使我们离为患者提供真正的解决方案更近了一步。”

张博士的研究小组发现,一个由253个电极组成的薄如纸的长方形电极被植入了女性大脑表面对语言至关重要的区域。

电极截获了大脑信号,如果不是因为中风,这些信号就会到达她的舌头、下巴、喉部和面部的肌肉。

一根电缆插入女性头部的固定端口,将电极与一组计算机连接起来,让人工智能(AI)算法经过几周的训练,能够识别与1000多个单词相关的大脑活动。

多亏了人工智能,这个女人可以写文字,也可以用合成的声音说话,这些声音是根据安瘫痪前在婚礼上的讲话录音合成的。

这名女子与研究人员合作了数周,这样人工智能就可以将她的大脑活动解码为面部动作。

研究人员与Michael Berger合作,他是Speech Graphics公司的首席技术官和联合创始人。

该公司基于人工智能的面部动画技术模拟了肌肉随时间的收缩,包括说话和非语言活动。

在一种方法中,研究小组使用受试者的合成声音作为语音图形系统的输入,代替她的实际声音来驱动肌肉。

然后,该软件将肌肉动作转换成视频游戏引擎中的3D动画。

研究人员称,实验的结果是一个真实的受试者化身,她能准确地与合成的声音同步发音,这是她努力交流的结果。

然而,在第二种更具突破性的方法中,来自大脑的信号直接与模拟肌肉相匹配,使它们能够与受试者的非功能肌肉相对应。

根据发表在《自然》杂志上的这项研究,她还可以让虚拟形象表达特定的情绪,并移动特定的肌肉。

伯杰表示:“创造一个能够实时说话、表情和表达的数字化身,并直接连接到主体的大脑,这表明人工智能驱动的人脸的潜力远远超出了电子游戏。”

“当我们说话时,它是听觉和视觉线索的复杂组合,帮助我们表达自己的感受和要说的话。

“仅恢复声音本身就令人印象深刻,但面部交流是人类固有的,它为失去这种能力的患者恢复了一种体现感和控制感。”

“我希望我们与张教授共同完成的工作能够继续帮助更多的人。”

与张博士一起工作的研究生Kaylo Littlejohn和加州大学伯克利分校电子工程和计算机科学教授Gopala Anumanchipalli说:“我们正在弥补因中风而切断的大脑和声道之间的连接。

“当受试者第一次使用这个系统说话并同时移动化身的脸时,我就知道这将会产生真正的影响。”

在另一项研究中,研究人员使用脑机接口(BCI)使一位患有肌萎缩侧索硬化症(ALS,也称为运动神经元疾病(MND))的68岁妇女帕特·贝内特(Pat Bennett)能够说话。

尽管贝内特女士的大脑仍然可以制定出产生声音单位的指示,但与语言有关的肌肉不能执行命令。

研究人员在她大脑的两个不同区域植入了两个微型传感器,并训练了一个人工网络来解码预期的声音。

在这个设备的帮助下,她能够以每分钟62个单词的平均速度交流,这是之前类似设备记录的3.4倍。

它也更接近自然对话的速度,大约每分钟160个单词。

研究人员表示,该计算机界面在50个单词的词汇表中实现了9.1%的单词错误率,比2021年最先进的语音BCI减少了2.7倍。

在125,000个单词的词汇中,单词错误率达到23.8%。

该研究的主要作者弗兰克·威利特说:“这只是一个概念的科学证明,并不是人们日常生活中可以使用的实际设备。”

“但这是一个巨大的进步,可以帮助瘫痪、不能说话的人恢复快速沟通。”

贝内特女士写道:“想象一下,当非语言的人能够实时交流自己的想法时,购物、赴约、点餐、去银行、打电话、表达爱意或感激,甚至争吵等日常活动将会有多么不同。”

吉忠网声明:未经许可,不得转载。