(1)東京大学の苗村健准教授らが開発した「可搬型カメラアレイシステム」と、(2)日立製作所が開発した「裸眼立体視ディスプレイ」を組み合わせた立体映像システム。撮影中の映像をリアルタイムで立体映像化することが可能となり、特殊なメガネを使わずに裸眼で楽しめるため、複数の視聴者による同時観賞にも対応できる。(1)は64台のネットワークカメラを8行×8列で配列(アレイ)したもの。被写体は64台のカメラ1台ごとに、微妙に違った角度から撮影されるため、その64の画像の中の同一の位置にある一点をそれぞれ取り上げたとすると、それらの点はすべて異なった画像情報をもつことになる。(2)では、この64個の点を1セットとして画面に表示し、その上に1mmにも満たないマイクロレンズを載せる。すると、レンズによる光の屈折のせいで、見る角度に合わせて、64個並んだ点のうちのどれか一つだけが目に映ることになる。これと同じ処理を画像全面にわたって施すと、左目と右目とで目に映る画像が微妙に異なり、この視差によって奥行きが再現され、立体視が成立する。なお正確には、マイクロレンズ1個当たりにあてがう点の数は64個ではなく、60個となる。この方式はIV(integral videography)と呼ばれ、1コマごとに60もの画像を合成することになるため、あらかじめコンピューターで作製しておいた映像にしか対応できなかった。そこで、裸眼立体ライブ映像システムでは、256×192画素かつ1秒当たり7コマまで画質を落とし、またカメラの1台1台自らがMotion JPEGという方式で映像データを圧縮し、これをパソコンの映像処理回路GPGPU(general purpose graphics processing unit)で並列計算することにより、撮影中の映像をリアルタイムで立体映像化するための超高速処理を実現した。2008年6月2日に開発が発表され、7月10~11日には、東京大学で開催された「3次元画像コンファレンス」にて実演展示された。