>>132
Yann LeCun

LeCun 氏は倫理や先入観が AI において今すぐに手を打たれるべき重要な問題になったとはまだ思っていないが、それに備えておくべきであると考えていると述べた。

“今はまだ…急いで解決しなければならない重大な死活問題があるとは思っていませんが、いずれその時は来ますし、私たちは…そういった問題を理解し、そういった問題が起きることを防ぐ必要があります。”

Ng 氏と同様に、LeCun 氏も柔軟性を持った AI システムをもっと見たいと思っている。そうすれば正確なアウトプットのために綺麗なインプットデータや正確な状況を必要としない、強固な AI システムへと到達することができる。

研究者はすでにディープラーニングを比較的上手く扱うことができているが、欠けているのは完全な AI システムの全体的な構造に対する理解であると LeCun 氏は言う。

世界を観察することを通じて学習するよう機械に教えるには、自己訓練型の学習か、もしくはモデルベースの強化学習が必要になると彼は述べた。

“さまざまな人たちがさまざまな名前を付けていますが、本質的には人や動物の赤ん坊は世界がどのように動くのかを、その膨大な背景情報を観察し見出すことで学習します。
機械でこれを行うにはどうすればいいのかはまだ分かりませんが、これは大きな挑戦です。この挑戦の報酬は AI における本当の進歩が本質的になされることです。
また機械の進歩に関しても、多少の常識を備え、イライラせずに話すことができ幅広い話題や議題を持つバーチャルアシスタントができるでしょう。”

Facebook を内側から支えるアプリケーションに関しては、自己訓練型の学習へと向かう発展が重要となり、また、より少ないデータから正確な結果を出せる AI が重要となるだろうと LeCun 氏は述べた。

“その問題の解決に至る中で、機械翻訳や画像認識といった特定のタスクのために必要なデータの量を減らす方法を見つけることができればと思っています。そしてすでにそういう方向に向けて発展しているところです。
Facebook で使われるサービスに弱教師あり学習や自己訓練型の学習を翻訳や画像認識のために使い、インパクトを与えています。ですので決して長期的なものというわけではなく、非常に短期的な結果ももたらすのです。”