X



(情報科学)技術的特異点と科学・技術等 1 (ナノテク) [転載禁止]©2ch.net
0001オーバーテクナナシー
垢版 |
2015/03/25(水) 03:09:59.43ID:JLiLnBxr
※このスレは、下記の本家スレから分かれた分家スレです。転載に関する規定は本家に準じます。

■現在の本家スレ
(強いAI)技術的特異点/シンギュラリティ(世界加速) 13 [転載禁止]c2ch.net
http://wc2014.2ch.net/test/read.cgi/future/1426647717/


本家スレの話題のうち、科学・技術系で『専門的な』話題を特に扱います。

スレ成立のきっかけ
・技術的特異点の関わる分野は非常に幅広く、浅い部分から深い部分までレベルも様々で、多様な人が集まっている
・上記を前提として、科学・技術系で専門的な内容に集中しやすいように、ノイズ(特に不毛な論争)を減らしたい
・これにより、興味がある者同士の意思疎通困難性、過去ログ参照の困難性などが解消される

ただし性質上、本家との区分は厳密には困難です。
むしろ同じ内容が扱われても構いません。
本家は雑談寄り、ここではより専門色を強く、とご理解下さい。


■姉妹スレ
(AIとBI)技術的特異点と経済・社会等 1 (天国or地獄) [転載禁止]©2ch.net
http://wc2014.2ch.net/test/read.cgi/future/1427004849/

■関連スレ
人工知能
http://wc2014.2ch.net/test/read.cgi/future/1286353655/
0579578
垢版 |
2016/12/04(日) 17:40:14.36ID:VL9xSNhJ
3) 予測は文脈依存 ry
予測は過去に何が起こったか、そして現在何が起こっているかに基づいて行われる。
従って直前の文脈に基づいて、ある入力から異なった予測が行われることがある。
HTM リージョンは必要なだけのより多くの直前の文脈を用いて学習し、
短時間ないし長時間の両方の文脈を保持 ry 可変長記憶18 ry
例えば、暗唱 ry ゲティスバーグ演説19 ry 。次の単語を予

18 variable order memory
19 Gettysburg Address。「人民の人民による人民のための政治」のフレーズが有名。
”Four score and seven years ago our fathers brought forth on this continent, a new nation,
conceived in Liberty, and dedicated to the proposition that all men are created equal...” (以下略)
0580yamaguti~貸
垢版 |
2016/12/05(月) 18:56:24.50ID:s5+vq0Ta
第五世代コンピュータ計画 = 大成功

↓↑

Prolog ソリューション = 言わばワトоン型


http://rio2016.2ch.net/test/read.cgi/future/1476925488/90# Dai5sedai
http://rio2016.2ch.net/test/read.cgi/future/1473812514/740# SuityokuTougou
http://google.jp/search?q=lisp+takeuti+gc+tao+OR+ruby


Report By 関 亜希子(ライター)
http://blog.livedoor.jp/chishajuku/archives/cat_1107573.html
> 日本発の新しいコンセプトに基づいた第5世代コンピュータ ry 僕も初期段階では参加 ry
> 。第5世代コンピュータは高性能な並列処理のロジックマシンで、
> ハードウェアのコンセプトとしては大変優れていたのですが、
0581YAMAGUTIseisei~貸し
垢版 |
2016/12/05(月) 20:47:47.60ID:s5+vq0Ta
>>http://rio2016.2ch.net/test/read.cgi/future/1480859621/59
> 59 : yamaguti~kasi 2016/12/05(月) 20:14:39.07 ID:s5+vq0Ta
> 専門分野違いながら
>
> 強い AI 理論 : HTM ( 予測 テンポラル系時間管理 )
> |
> | 入力応用 ? ( 一層切出し 多層化 ? )
> ↓
> 弱い AI 実装 : DeepLearning ( 外部タスク 内部ビュー 等 → 自己改良用分割余地 )
> |
> | フレーム自体モデル化 ? ( → 自己改良転用パーツ化余地 )
> ↓
> 弱い AI 実装 : Deep PredNet ( 予測 )


>DeepLearning ( 外部タスク 内部ビュー 等 → 自己改良用分割余地 )

| 外部タスク 内部ビュー 等 動的化 外部化

DNC ( 自律傾向芽生え 長期記憶 http://rio2016.2ch.net/test/read.cgi/future/1475655319/939# )
0582yamaguti~貸
垢版 |
2016/12/07(水) 01:03:50.89ID:i949cOw9
>207 : yamaguti~kasi 2016/12/07(水) 00:40:01.72 ID:i949cOw9
> >>航空機 戦艦
> >899 : YAMAGUTIseisei 2016/11/04(金) 21:09:51.02 ID:O8dhrfC/
>> 32 bit 版 ARM の肝はそこではない
> >>航空機へのゲームチェンジに耐える非戦艦型スパコン設計
>
> >740 : yamaguti~kasi 2016/12/03(土) 22:40:41.28 ID:97cte86A
>> >>600
>>> 将来には脳の全てをエミュレーションできるAIの開発も研究
> >最初からоみ ( 現状版 64bitARM 不о合 )
>> http://rio2016.2ch.net/test/read.cgi/future/1476925488/899
>
>http://rio2016.2ch.net/test/read.cgi/future/1480118427/568# tyuugoku


>>527
> >>525-526
> http://google.jp/search?q=arm+32+meirei-hyou+OR+asenburi+OR+futuu%89%BB

http://google.jp/search?q=tronchip+meirei+kansetu
http://rio2016.2ch.net/test/read.cgi/future/1480118427/946# interconnect

>> >もっと言えば電子頭脳そのもの = AI ( AL ) 変形スパコン戦艦航空機

>>182 >>381 >>531-534
0583YAMAGUTIseisei~貸し
垢版 |
2016/12/08(木) 01:22:18.80ID:03i1lYGF
do?omo 1996 年頃 Web アンケート ( 携帯電話 拡張案 )
→ メディア化案 投稿 ( アイデア料に付いて付記 具体例 SYSTEM2 音源エミュ )

NetScapeNavigator キャッシュのバックアップが残っている筈
0584yamaguti~貸
垢版 |
2016/12/08(木) 23:59:03.35ID:03i1lYGF
>>http://rio2016.2ch.net/test/read.cgi/future/1480859621/364-365
ポストヒューマン = 単に AI 装備 ?

>713 : YAMAGUTIseisei 2016/11/02(水) 18:56:57.88 ID:2rq/lQF2
> ※ 但し AI とはまともには融合できない ⇔ 融合可 → AL ( かネイティブモーフィック NSPU )
> http://wc2014.2ch.net/test/read.cgi/future/1450893538/889# YuugouFukanou

※ 但し Fixstars : Cell 蓄積 → 航空機スパコン 射程 ?


http://rio2016.2ch.net/test/read.cgi/future/1480118427/946# koukuuki
http://google.jp/search?q=cell+nettowa-ku+OR+off-chip-ac0+bif/ioif0
http://google.jp/search?q=kutaragi+net+tokasu
ttp://google.jp/search?q=cellbe+network-gata+sekkei+eib
>>582

ttp://yahoo.jp/UUNk3s?#Sponsor_-_CellBE
0586yamaguti~貸
垢版 |
2016/12/10(土) 01:58:38.83ID:O8le5YJ4
http://www.sankeibiz.jp/smp/aireport/news/160605/aia1606050700001-s1.htm
> ーニングの顔ニューロンが表現する内容は静的ですが、脳の顔ニューロンは非線形のダイナミクス ry
> 。猿の脳 ry 、顔ニューロンが、刺激の後しばらくは人と猿を区別するみたいな大まかな分類をやり、
> もう少し時間が経つと、より詳細な個を区別したり、表情を区別したりしだすのです。
> つまり時間とともに表現する内容が変わっていく。
> このダイナミクスが脳の本質で、それがない人工ニューラルネットワークは脳とは全然違うものなのです。

>>562 >>564 >>578
http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#22#26#28-30#32#38-41#54#63#70#73#77#80


2
> 理論が大事 ry 。やってみたら出来ました、結果が出ましたという研究が多い。
> ディープラーニング ry は、入力情報と出力情報を一致させる同じニューロン数から成る恒等写像を
> 作ることを繰り返すのだけど、その際、途中(中間層)でニューロン数を絞るので非線形の情報圧縮が起き、
> ry 圧縮 ry 。だけど、それが何故上手くいって、何をやっているのかを理論的に解明しないと、
> 大きな飛躍にはならないと思います。 ry
> 理論研究は世界的にあまり進んでいなくて、みんな使ってみて結果を出すことに熱中

5
> ディープラーニングに関しては、もっと数理をやらないと底が浅い話 ry 危惧 ry
> 使ってみたら出来ましたっていう研究 ry も良いと思いますが、
> 僕らは数理の研究者なので、どうして上手くいくのかが分からないと僕らの研究にはならない
0587586
垢版 |
2016/12/10(土) 01:59:36.18ID:O8le5YJ4
http://www.sankeibiz.jp/smp/aireport/news/160605/aia1606050700001-s3.htm
> 「ディープラーニングを使って、動的なものすなわち時空間のダイナミクスを扱おうとすると、
> これまで失敗してきたことの繰り返しになると思います。
> ニューラルネットワークを使って、時空間のダイナミクスを扱う研究は何十年もされてきてはいますが、 ry
> 。むしろ、そういった時空間情報を扱う手法は、既に数学的に ry 。ディープラーニングは要素技術としては

>>555 >>564 >>567-568
#32#36#40#48
>>581


4
> 大脳皮質は、視覚も聴覚も触覚の部分も基本的に同じ六層構造で、構造自体に汎用性があります。
> 単にそこに入ってくる情報が違うだけで、基本原理は同じはずです。

http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#11#12#65-67#69
0588587
垢版 |
2016/12/10(土) 02:00:38.64ID:O8le5YJ4
4
> 人工知能が語られる時、ほとんどの場合はソフトウェア ry
> 、ハードウェアのことが触れられることは極めて少ない。
> 「あと、ハードウェアの研究をやらないと革新的なものは作れない ry
> 。日本は伝統的にニューロンのハードウェア化の分野で世界をリード ry
> 。今ではニューロモーフィック

>>555
> HTM ネットワークは ry 、階層構造、時間と疎分散表現( ry )の主要機能を包含する限り、
> 我々は汎用的なコンピュータを使ってモデル化することができる。
> 我々はいずれ、HTM ネットワークに特化したハートウェアを作ることになる ry

>>554
> 人工知能エンジン Deep Insights
> 汎用人工知能 Project N.I.
> 汎用人工知能用ハードウェア開発
> ・Connectome機能実現
> 汎用人工知能
> (世界初のAGI)
> ・マスターアルゴリズム
> ・ソフトウェアレス
0590578
垢版 |
2016/12/11(日) 19:26:04.24ID:MuR51IGq
Page 22

測するには、現在の単語だけでは全く不十分 ry ”and” の次に
“seven” が来ることもあれば、 ry 。ときにはほんの少しの文脈で予測 ry
“four score and” と分かれば次の “seven”を予測できる。
他の場合はフレーズが繰り返される場合 ry 、より長い文脈を使う必要がある。

4) 予測は安定化に ry
あるリージョンの出力はその予測である。
HTM の特徴の一つは、リージョンからの出力はより安定 ry
。安定とはつまり、階層構造の上位に行くほどよりゆっくりと変化し、長く継続 ry
。リージョンは ry 可能なときは時間軸の複数ステップ先 ry 5 ステップ先 ry
。新しい入力 ry 、新たに予測されたステップは変化するが、
しかしそのうちの 4 つの既に予測されたステップは変化しない。
ry 、出力の一部だけが変化するので、出力は入力よりも安定化している。 ry 。
歌の名前のような高レベルの概念は、 ry 音のような低レベルの概念よりもゆっくり ry

5) ry 、新しい入力が予期されたものか予期しないものかが分かる
各リージョンは ry 、予期せぬ事 ry 知ることができる。
HTM は次の入力として起こりうる ry 一度に多数予測 ry
正確に予測できるわけではないが、 ry
どの予測にも一致しないとき、何か普通でないこと ry

6) 予測はシステムをノイズにより強く ry
HTM ry 、推論をその予測に従う方向へ向かわせる ry
話し言葉 ry 、次にどんな音が、単語が ry 予測により、欠落したデータを埋め合わせ ry
あいまいな音 ry 予測していることに基づいてその音を解釈 ry 、ノイズ ry 推論 ry

HTM リージョンの、シーケンス記憶、推論、予測は緊密に統合 ry
レスを投稿する


ニューススポーツなんでも実況