X



(強いAI)技術的特異点/シンギュラリティ 83 (知能増幅) [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
0001山口青星2017/09/08(金) 21:08:19.69ID:TGbZX1nR
2029年にも人類は技術的特異点[Technological Singularity]を迎えると予測されている
( 2045年には$1000相当の機器の知性が全人類の知能の合計を上回るとカーツワイル ) 。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から網羅的に考察し意見交換する総合的なスレッド。

技術的特異点:収穫加速の法則とコンピュータの成長率に基づいて予測された、
生物的制約から開放された知能[機械ベース or 機械で拡張]が生み出す、
具体的予測の困難な時代が到来する起点。

収穫加速の法則:進歩のペースがどんどん早くなるという統計的法則。
ここでの進歩とは、技術的進歩だけでなく生物的進化、生化学的秩序形成も含む。

関連スレ[特化した話はこちらで]
(AI) 技術的特異点と政治・経済・社会 (BI)
http://google.jp/search?q=site:2ch.net/test/read.cgi/future/+tokuiten+seiji+syakai
(情報科学) 技術的特異点と科学・技術 (ナノテク)
http://google.jp/search?q=site:2ch.net/test/read.cgi/future/+tokuiten+gijutu+%22%28nanoteku%29%22

関連書籍・リンク・テンプレ集[必見]
http://goo.gl/Puha9e

※前スレ
(強いAI)技術的特異点/シンギュラリティ82
http://rio2016.2ch.net/test/read.cgi/future/1503993813/
0059yamaguti~貸2017/10/28(土) 18:17:40.78ID:Hf+5Lm3+?2BP(0)

>43 :オーバーテクナナシー:2017/10/27(金) 23:03:32.98 ID:PJu5DZzr
> 山川先生はAGIが2023年 ry
>ドワンゴ人工知能研究所の所長の山川宏とのインタビュー
>http://futureoflife.org/2017/10/12/
%E3%83%89%E3%83%AF%E3%83%B3%E3%82%B4%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD%E7%A0%94%E7%A9%B6%E6%89%80%E3%81%AE%E6%89%80%E9%9
5%B7%E3%81%AE%E5%B1%B1%E5%B7%9D%E5%AE%8F%E3%81%A8%E3%81%AE%E3%82%A4%E3%83%B3/

> 13 の答え:山川さん
>様々な形で人間と人工知能が融合した形も現れて ry 、こうして多様性を拡大しておくことは、生き残る確率を高める
:
>存在すべきものの多様性に関わる議論 ry 、「私たち人類は未来の宇宙にむけて何を残すべきか」 ry
>文明がシンギュラリティを超えられる確率がかなり低くても、それ以上に多くの星でシンギュラリティが起これば


> YAMAGUTIseisei 15 Feb 15
> @dream_power 謹啓 残寒の候 先の詞は大芸術家様作とも念の為 .
> さて荘厳極みますはご寸相伝の老舗ご令嬢お犬連れの夜明前に燃え盛ります炎煌々の花びらか軽く只軽く熱風と共に舞い注ぎぬ新紙幣ならぬ足利家様所縁たる積もらんや金色の群夢幻かと .
> 謹白 二月一日 山口 オノ様

http://rio2016.2ch.net/test/read.cgi/future/1496019293/934# Hasabisu
0060592017/10/28(土) 18:19:50.09ID:Hf+5Lm3+?2BP(0)

>>59
>5. ドワンゴの人工知能研究所 ry 、文明発展による人類存亡のリスクについて説明 ry (人工知能・ ry) ry 最大のリスク
> 5の答え:山川さん
> Existential Riskというのは人類存続の危機 ry
>、狭い部屋の中で全員が爆弾 ry 、誰が爆弾に点火しても全滅 ry 10人 ry 、相互に監視して、お互いに信用 ry
> 。しかし、100億人が全員爆弾を持っていて誰がスイッチを押しても全滅する状態で、100億人全員を信用 ry
> 、人工知能がナノテクノロジーを駆使して ry 人類を絶滅させるシナリオ ry
>攻撃兵器が開発されて、それを追うように防御兵器が開発 ry 攻撃力が防御力を上回る期間が存在 ry
>真剣に検討 ry 、高度な人工知能が意思決定主体になれば、リスクはさらに増加 ry
> ホーキン ry 氏が「宇宙に進出するまでの100年が危ない」 ry
> 、人類絶滅能力を持つ意思決定主体の増加による絶滅リスクはかなりクリティカル

> 7. AGIがもたらす最大のリスクは何だと思いますか?
> 、先ほどお話しましたように、人類絶滅能力をもつ意思決定主体の増大がもたらすExistential Risk

>11. 人工知能の安全性 ry ? 人工知能の構成 ry 安全な仕組みに設計 ry ?
>全く時期尚早とは思いません、急いで ry 。以前より技術発展が加速度的状況にあることはカーツワイル氏ら ry
>、人間には心理学で言う「正常値バイアス」 ry 「今まで大丈夫だったからきっと大丈夫だろう」 ry
>、普通は正しくて有効なのですが、今回の場合 ry
> 、知的生命体が技術発展の末に絶滅する確率を計算 ry 。先に述べたような、人類絶滅能力を持つ意思決定主体の増加


>2 :YAMAGUTIseisei~貸:2017/10/21(土) 16:40:52.94 ID:mUPESF2s?2BP(0)
:
> http://rio2016.2ch.net/test/read.cgi/future/1508026331/993# Hoken

>>2
> ミウラ mruby 式電子頭脳 VM ( 強い AI ( AL ) 反乱抑制設計 )
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況