>>630
薮崎 「2017年に、AIが脅威となると警鐘を鳴らすイーロン・マスクに、マーク・ザッカーバーグが疑問を呈して対立するということがありました。
超知性やシンギュラリティなどが叫ばれており、AIは人類の敵か味方かという論争が起こっていますが、林さんはどのように考えていらっしゃいますか?」

林 「人類とAIは共存していけると思います。ただ、人類がAIのやることを完全に理解してコントロールすることは不可能でしょう。
『人間にはAIの出した結論の意味や意図はわからないけれど、正しいはずなのでAIの指示に従う』というような未来が起こり得ると考えています」

薮崎 「どういうことでしょうか」

林 「人間が考えられることってたかが知れているんです。
わかりやすいのでIQでお話しすると、普通の人はIQ100くらいで、IQ130を超えると天才なんて言われたりします。
でもAIは、2045年頃には、IQが1万くらいになっているかもしれない。
そう考えると、人間って本当に狭い世界でしか生きていませんよね。」

薮崎 「『IQが30違うとコミュニケーションが成り立たない』なんて言われますが、100倍違うともはや理解不能でしょうね。」

林 「そうですね。囲碁や将棋の世界では、すでに人間よりもAIの方が圧倒的に強くなっています。
なので、AI同士を将棋で対局させると、我々からすると“普通はありえない”ような手を指すことがあります。
しかも1秒間で何千何万という手を検討しながら、365日24時間学習し続けるので、どうしてそういう手を打ったのか、ますます人間には理解できないレベルになっています。
囲碁や将棋の世界で見てきたそうした景色が、他の領域でも今後起こるだろうなと思っています。」

薮崎 「なるほど。AIの指示は、現時点ではもっとも正しいものであるはずなので、人間としては、理解はできないけれど従うべきものということになりますね。
どこまで人間側がそうした意思決定の手綱を握っておくか、という判断も必要になるでしょうね。」