物体認識で問題なのはやっぱり物体の前から、横から見た映像をちゃんと同じものと
認識できない事だなあ

ここで問題になるのは、

例えば普通の画像認識でも「100×100の粗い画像にしても、それを10000個のcudaコアで分析出来たらなあ」
なんて考えてしまうんだが
できれば1000×1000がいいんだが、

これが立体方向に見るとなると1000*1000*1000で簡単に10億個のニューロンになってしまう
しかも上から見たこの映像の物体が前から見るあの映像の物体と同じで、別角度

なんてのを全部ニューロンとして繋がないといかん
やっぱり100*100*100程度で100万ニューロンで誤魔化すかなあ
これを1/10秒単位で切り取る

やっぱりエクサスケールのスパコンが要るねw