>>59
>5. ドワンゴの人工知能研究所 ry 、文明発展による人類存亡のリスクについて説明 ry (人工知能・ ry) ry 最大のリスク
> 5の答え:山川さん
> Existential Riskというのは人類存続の危機 ry
>、狭い部屋の中で全員が爆弾 ry 、誰が爆弾に点火しても全滅 ry 10人 ry 、相互に監視して、お互いに信用 ry
> 。しかし、100億人が全員爆弾を持っていて誰がスイッチを押しても全滅する状態で、100億人全員を信用 ry
> 、人工知能がナノテクノロジーを駆使して ry 人類を絶滅させるシナリオ ry
>攻撃兵器が開発されて、それを追うように防御兵器が開発 ry 攻撃力が防御力を上回る期間が存在 ry
>真剣に検討 ry 、高度な人工知能が意思決定主体になれば、リスクはさらに増加 ry
> ホーキン ry 氏が「宇宙に進出するまでの100年が危ない」 ry
> 、人類絶滅能力を持つ意思決定主体の増加による絶滅リスクはかなりクリティカル

> 7. AGIがもたらす最大のリスクは何だと思いますか?
> 、先ほどお話しましたように、人類絶滅能力をもつ意思決定主体の増大がもたらすExistential Risk

>11. 人工知能の安全性 ry ? 人工知能の構成 ry 安全な仕組みに設計 ry ?
>全く時期尚早とは思いません、急いで ry 。以前より技術発展が加速度的状況にあることはカーツワイル氏ら ry
>、人間には心理学で言う「正常値バイアス」 ry 「今まで大丈夫だったからきっと大丈夫だろう」 ry
>、普通は正しくて有効なのですが、今回の場合 ry
> 、知的生命体が技術発展の末に絶滅する確率を計算 ry 。先に述べたような、人類絶滅能力を持つ意思決定主体の増加


>2 :YAMAGUTIseisei~貸:2017/10/21(土) 16:40:52.94 ID:mUPESF2s?2BP(0)
:
> http://rio2016.2ch.net/test/read.cgi/future/1508026331/993# Hoken

>>2
> ミウラ mruby 式電子頭脳 VM ( 強い AI ( AL ) 反乱抑制設計 )