月 16 日消息,科技媒體 TechSpot 昨日(8 月 15 日)發布博文,報道稱斯坦福大學研究團隊首次實現了將人類內心語言直接轉化為語音的腦機接口技術。
該系統通過植入電極陣列,記錄癱瘓患者運動皮層的神經活動,并運用機器學習模型解碼想象中的語音,準確率最高達 74%。
以往的腦機接口多基于檢測說話時的大腦信號,而斯坦福團隊則突破性地讓參與者只需默想詞語即可被系統識別,能夠將人們腦海中想象的語言直接轉化為實際語音。
這項技術首次實現了不依賴口腔或聲帶動作,僅憑“內心語音”完成交流,對神經技術領域具有里程碑意義。
圖源:Emory BrainGate Team
本次試驗招募了四位因漸凍癥或腦干中風導致重度癱瘓的患者。部分受試者只能通過眼睛移動來表達“是”或“否”。
醫生在他們的大腦運動皮層(控制說話動作的核心)植入了微型電極陣列,隨后患者分別嘗試發聲和默默想象特定詞語,系統實時記錄和分析他們的神經活動。
科研團隊利用機器學習模型,針對語音最基本的音素進行識別訓練,再將這些音素組合成完整的詞語和句子。
結果顯示,盡管想象語音產生的神經信號較弱,但仍具有可辨識的特征,系統最高解碼準確率達到 74%,這意味著即使患者完全無法發聲,也能通過思維實現高效溝通。
技術負責人表示,這項成果讓科學家首次清晰了解純思維狀態下的語音神經活動。對于嚴重言語障礙者而言,基于“內心語音”解碼的腦機接口有望讓交流變得更自然、更輕松。
另有專家指出,嘗試說話對于部分癱瘓患者來說既耗體力又可能帶來呼吸障礙,直接解碼默語能極大改善他們的交流體驗。
團隊在研究過程中的也發現了隱私方面的挑戰:系統有時會檢測到參與者未主動想表達的內容。對此,研究人員設計了“心理密碼”機制,只有在腦中默念特定密碼后,解碼器才會啟動。測試中,“chitty chitty bang bang”這一口令能在 98% 的情況下阻止無意解碼。