專家首次讓癱瘓失語患者能夠通過腦電波“說話”

醫學專家首次嘗試將癱患失語患者的腦電波翻譯成語句,顯示在電腦屏幕上。
Sputnik

這還需要進行多年的進一步研究,但當前的研究已向因傷病而無法說話的人有朝一日能更自然的交流邁出了重要一步。相關文章發表在《新英格蘭醫學雜誌》上。

AI學會將腦信號轉化為文字
現在,因癱瘓而無法說話或書寫的人的交流方式非常有限。眾所周知,著名物理學家霍金從2005年開始用自己面部唯一能動的肌肉進行語音合成來交流,大約每分鐘只能說一個單詞。有時候也可以追蹤瞳孔運動。參與此次研究的患者平時用固定在帽子上的指針,通過運動頭部來觸碰屏幕上的單詞或字母。但所有這些方法都慢得讓人鬱悶,而且語音替代有限。

近年來,腦機接口的出現讓癱瘓患者操控假肢成為可能。加利福尼亞大學舊金山分校神經外科專家Edward Chang領導的科研團隊用這一原理研發出“語言神經假體”,該設備可以解碼那些控制唇、頜、舌、喉肌肉運動從而生成語音的腦電波。

自願參加測試的患者在15年前因腦幹中風而大面積癱瘓,因此失去了說話能力。專家將電極植入其大腦皮層負責語言的區域。電腦分析了患者想說話時大腦中發生的神經活動,最終分辨出50個單詞,可組成1000多個句子。例如,對於“想喝水嗎”這一問題,受試男子通過電腦可以回答“不,我不想喝水”。論文第一作者David Moses稱,患者嘗試發音三到四秒後,單詞就會顯示在電腦屏幕上。這速度雖然不能與正常交流相比,但比癱瘓患者目前可用的其他交流方式相對更快。