未来产业

利用AI还原脑电波 这种“读心术”距离现实究竟还有多远?

对于更多缺乏发声能力的普通人(比如中风患者、植物人等)来说,技术能帮助他们“言其所不能言”,提高生活质量吗?

【编者按】思维不被侦破,就是为了让人类有自己的安全空间;当大脑思维都能被识破,人间还安全吗?

“我的身体沉重如潜水钟,内心却渴望像蝴蝶般自由飞翔。”

这句来自电影《潜水钟与蝴蝶》的台词,也是前《ELLE》杂志主编、记者让·多米尼克的真实经历。

让·多米尼克中风瘫痪后,身体的语言和运动功能都丧失了,他不能说话,不能自主呼吸,只剩下一只眼睛和意识可以自由活动。在这种情况下,他还是“写”出了一部散文集。

书是这样完成的:助手把一个个字母依次念给让·多米尼克,直到他眨一下眼,就把那个字母记下来……如此循环进行,直到字母形成单词、句子、片段,最终付梓成册。

显然,这个还原思维的过程十分艰辛且原始,但至少给他的灵魂留下了一丝自由遨游的可能。

而对于更多缺乏发声能力的普通人(比如中风患者、植物人等)来说,无法与正常人交流的他们,生命已然停滞。

技术能帮助他们“言其所不能言”,提高生活质量吗?

答案是肯定的。科学家们正试图让看不见摸不着的思维活动自动“显形”。

通过计算机,将大脑中的所思所想转换成语音说出来,这种“读心术”距离现实究竟还有多远?

潜水钟与蝴蝶(剧照)1.jpg

《潜水钟与蝴蝶》(2007)剧照

AI读心术:计算机是如何还原脑电波的?

先来泼一盆冷水,那就是想要将人想象中的单词和句子转换成语音,目前的计算机还做不到如此鬼斧神工的地步。

不过,已经有研究人员成功利用AI复原了人听到或超小声说话时的句子。

技术的实现原理也并不复杂。人类的发声运动是靠大脑神经元电信号刺激下颌、嘴唇、声带等部位形成的。

因此,只要将相关脑区的神经运动信号输送给AI系统,深度学习网络就会根据信号与相对应的语言文字或嘴部运动进行层层匹配,推断出具体说了什么,再由语音合成器将这些信号转换成能被听到的语音。

AI技术如何还原脑电波.jpg

那么,这项技术的靠谱程度如何呢?

哥伦比亚大学计算机科学家Nima Mesgarani做了一项实验,让听众“收听”一组与故事和数字有关的听觉皮层数据,有75%的人能够正确识别出该数字。

类似的实验在加州大学旧金山分校的研究组也成功了。癫痫患者大声朗读句子时的大脑活动被记录下来,借助深度学习网络重建为书面语句。结果显示,AI重现的句子有80%都是正确的。

既然神经信号转译为书面语言被证明是可行的,下一步就是要走出实验室,真正帮助失声人群“说出心里话”了。

脑极体
订阅新闻电邮