人工智慧 (AI) 正在幫助語音輔助技術更接近以正常速度傳遞超過 1,000 個單字的大詞彙量的語音。
最近開發的兩種被稱為「突破性」的腦機介面正在對無法說話的癱瘓患者進行測試。
貝內特(Pat Bennett) 是一名患者,患有肌萎縮性脊髓側索硬化症(ALS),這是一種罕見的疾病,隨著時間的推移,隨著大腦退化,這種疾病會變得更加嚴重。
史丹佛大學的一個研究小組為她植入了微型電極。
植入物安裝在她的頭骨中,放大來自單個腦細胞或神經元的信號,並將它們通過頭皮發送出去。然後放大的訊號透過機器學習軟體演算法運行,該演算法將大腦活動的神經活動與英語的各個音素相關聯。
使用語言模型自動更正輸出並將其放置在螢幕上。
它還可以透過標準的文字轉語音程式讀出。
將大腦訊號翻譯成語言的電腦軟體已經存在了一段時間,但它需要預先安排問題和答案,協調對話。
然而,新系統旨在使用人工智慧複製正常語音。
它可以以 24% 的錯誤率解碼多達 125,000 個英語單字。當系統基於 50 個單字的詞彙時,發現錯誤率為 9%。
「這是一個有用的詞彙,嚴重癱瘓的人可以用它來表達基本需求,」史丹佛大學神經外科教授 Jaimie Henderson 博士說。
亨德森認為,使用更多通道數更多的電極將顯著擴大詞彙量。
加州大學舊金山分校的研究人員正在進行類似的研究。
他們在一名患者的顱骨下放置了一個電網,該患者自 18 年前腦幹中風以來就無法說話。
加州大學舊金山分校 (UCSF) 的研究人員之一 Sean Metzger 表示:“我們喜歡這些的一個原因是它們不會滲透到大腦中,而且覆蓋了大腦的更大區域。”
「因此,可以從更多區域進行記錄,並且記錄更加穩定,這意味著它們每天看起來都一樣,從某種意義上說,它們位於大腦頂部,並且同時記錄數以萬計的神經元,而電極會同時記錄1 到3 個神經元。所以這是一個不同的信號,但仍然包含很多信息。
研究團隊也使用化身來顯示臉部表情。
雖然這兩項研究都發表在《自然》雜誌上被稱為“里程碑”該技術距離患者在家中使用還有很長的路要走。
這兩項研究中的女性都需要連接到電腦系統,並且需要研究人員對她們進行觀察。
史丹佛大學和加州大學舊金山分校的研究都旨在招募更多參與者以改善軟體。
研究人員希望最終能開發出一種分立設備,可以完全位於頭骨內部,並與軟體和電腦無線連接。
有關此故事的更多信息,請觀看上面媒體播放器中的視頻。