Smiley face
写真・図版
脳内の端末から脳の活動の信号を読み取るイメージ=ネイチャー・ニューロサイエンス掲載の論文から

 声に出そうと思い浮かべたメッセージを脳活動から読み取り、AI(人工知能)で処理することで、病気の後遺症で発声できない人がリアルタイムに意思疎通できるようになった――。そんな研究結果を米カリフォルニア大などのチームがまとめた。これまでの技術よりタイムラグが少なく、円滑な会話ができるようになる可能性があるという。

 論文は3月31日に科学誌「ネイチャー・ニューロサイエンス」に掲載された(https://www.nature.com/articles/s41593-025-01905-6)。

 チームは臨床試験として、脳卒中の後にまひが残り、18年間発声できていない47歳の女性の脳にシート状の端末を移植。脳の活動で生じる電気信号と、女性が話すために思い浮かべた約1千の単語の対応関係をAIに学習させた。

 AIは脳の信号を素早く解読し、文字情報に変換。この文字情報と、脳卒中前にとっていた女性の声を組み合わせることで、女性が脳内で話そうとした文章を音声で出力できるようにした。

 チームによると、これまでも…

共有