慶応義塾大学の舘すすむ(「すすむ」は“日”へんに“章”)特任教授のグループが開発した、テレイグジスタンス遠隔操作ロボット。2011年に開発されたが、新技術の導入によって、ロボットの指先が計測した圧覚、振動覚、温度覚を操縦者に伝え、再現することに成功。たとえば、絹の布とデニム生地の感触の違いまでも再現することができるといい、その成果は12年7月5日に発表された。テレイグジスタンスとは、操縦者の動きをトレースして分身のごとく動くアバターロボットを通じ、そのカメラやマイク、センサー類からの情報を操縦者にフィードバックする感覚伝達技術で、ロボットには操縦者の存在感を宿らせ、操縦者はロボットと一体化したように感じる。TELESAR Vの操縦者は、(1)頭の動きをロボットに伝えるとともに、ロボットのカメラやマイクが捉えている映像や音声を再生するためのヘルメット、(2)体の動きや傾きをロボットに伝えるためのベスト、(3)手指の動きをロボットに伝えつつ、ロボットが触れている物の触感や温感を再現するためのグローブ、という三つの装備を着用する。中でも課題であったのが(3)で、同グループは、三原色の組み合わせであらゆる色が表現できるのと同じように、圧覚、皮膚伸び覚、痛覚、低周波振動覚、高周波振動覚、冷覚、温覚の7種類の感覚要素を組み合わせることで、あらゆる皮膚感覚を表現できると考え、これを触原色原理と名付けて研究を進めてきた。そして、ロボットの指先と物体との接触力を計測する圧力センサー、振動を計測する音響式触感センサー、温度を計測する温度センサーを組み合わせた触覚センサーと、各種デバイスを操縦者のグローブの指の背や腹に分離して搭載した触覚ディスプレーを開発。ロボットの手が計測した7種類の感覚要素を操縦者の手に再現することに成功した。商品の触感を確かめながらの通信販売や遠隔地での診察、極限環境下での作業など、応用が期待される。