脳活動の信号から、その人物が見ているものを予測し、映像で再現する技術。脳活動のデータをもとに、その人が何を見聞きしているのか、あるいは何をしようとしているのかを読み取る「脳活動のデコーディング」研究の一環。国際電気通信基礎技術研究所(ATR)などのグループによる共同研究で、2008年12月11日に発表された。光の刺激は目から網膜に届き、電気信号に変換されてから、後頭部に位置する大脳視覚野に届けられ、その情報を知覚するべく、脳活動が起こる。その様子はfMRI(機能的核磁気共鳴断層画像)などの分析装置で詳細に観察することができる。そこで、従来、被験者が見ている画像を網目状に分割、その一つひとつの領域における明暗のパターンと、その刺激を受けて起こる脳活動の様子とを比較することで、視覚情報の解読ができると考えられてきた。しかし、この方法では、前もって大量のデータを採取してデータベース化しておかなければならないうえ、そもそも画像情報とは、色の度合いや明暗の度合いなど、条件があまりにも多いため、現実的には、被験者が見ている記号や図形を予測するぐらいのことが限界だった。そこで、同グループは、(1)被験者が見ているものを、いくつもの画像要素、つまり、赤いものだけを抽出する、というように細かく分解、(2)それぞれの画像要素に対応するであろう脳の部位を自動的に選択していく計算方法を導入することで、解析プログラムが経験則を関数として学習していく過程を効率化、(3) fMRIを使って、異なる解像度で脳の活動を観測、(4)それぞれの解像度ごとに解析を行い、その予測結果を組み合わせることで、全体としての誤差を低減、(5)被験者が見ているものを映像として再現することに成功した。現時点では、データベースにはない幾何学図形やアルファベットの再構成、1億通り以上の候補の中から被験者が見ている画像を特定、2秒ごとのデータ取得による動画化が実現している。