たぶん世界初
寝たきりの患者が分身ロボットで来客に珈琲を出す事に成功!

ALS患者の岡部さんが唯一動かせる眼で視線入力し、120cmOriHimeの視界を見ながら操作。部屋を走り回り、人を出迎えたり飲み物を配った

未来では自分の身体を自分で介護できるかもしれない。研究は続く
#orihime
#orihimeeye
https://twitter.com/origamicat/status/1007953355220574209
動画あり

脳波から運動の意図を100msで認識、リアルタイムで思い通りに機械を動かせる
https://headlines.yahoo.co.jp/hl?a=20180615-00000008-it_monoist-ind
産業技術総合研究所(AIST)は2018年5月29日、脳の予測機能を利用し、脳波から高速かつ高精度に運動意図を読み取るブレーン・コンピュータ・インタフェース(BCI)技術を考案したと発表した。
AISTとフランス国立科学研究センター(CNRS)が共同で設置したAIST-CNRSロボット工学研究ラボ CNRS主任研究員のGanesh Gowrishankar氏らと、東京工業大学、大阪大学の共同研究グループによる成果だ。

 研究では、運動をする際に脳が「運動した後の体の状態(運動結果)」を予測する機能を利用し、予測と意図した結果とのずれにより発生する脳波から運動の意図を検出する技術を確立した。

 具体的には、錯覚を引き起こす人工的な感覚刺激装置(前庭電気刺激)と脳波を用いて、意図した動きと外部刺激によって錯覚した動きとが合致する度合いを評価して識別する。この新しい手法は、100ms以内の高速度、平均85%以上の高精度で意図の読み取りができた。

 今回考案されたBCI技術は訓練が不要で、負担が小さい。また、読み取り速度の速さからリアルタイムで利用可能だ。このため、四肢にまひのある患者が車いすなどの外部機器を操作するインタフェースへの適用が期待される。

 今後、臨床での試験を開始し、既存のBCIと併用して、特に運動制御に関して機能を向上させる研究を進めていく。