(強いAI)技術的特異点/シンギュラリティ171
■ このスレッドは過去ログ倉庫に格納されています
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。 未来技術によって、どのような世界が構築されるのか?人類はどうなるのか? などを様々な視点から網羅的に考察し意見交換する総合的なスレッド ■技術的特異点:収穫加速の法則とコンピュータの成長率に基づいて予測された、 生物的制約から開放された知能[機械ベース or 機械で拡張]が生み出す、 具体的予測の困難な時代が到来する起点 ■収穫加速の法則:進歩のペースがどんどん早くなるという統計的法則 ここでの進歩とは、技術的進歩だけでなく生物的進化、生化学的秩序形成も含む ★ 関連スレ(特化した話はこちらで) (AI) 技術的特異点と政治・経済・社会 (BI) http://goo ☆.gl/riKAbq (情報科学) 技術的特異点と科学・技術 (ナノテク) http://goo ☆.gl/RqNDAU ※URL部分をコピーし、☆を消してペースト※ ※前スレ (強いAI)技術的特異点/シンギュラリティ170 https://rio2016.5ch.net/test/read.cgi/future/1566534326/ (強いAI)技術的特異点/シンギュラリティ169 http://rio2016.5ch.net/test/read.cgi/future/1564778477/ (強いAI)技術的特異点/シンギュラリティ167(実質168) http://rio2016.5ch.net/test/read.cgi/future/1564064841/ (強いAI)技術的特異点/シンギュラリティ167 http://rio2016.5ch.net/test/read.cgi/future/1564044623/ _ttp://rio2016.2ch.net/test/read.cgi/future/1504872499/138-139# Hannyou AI/AL / HTM # YuugouGijutu <-> NN TuijuuYosoku _ttp://rio2016.2ch.net/test/read.cgi/future/1549315166/54-55#1522139588/10# YuugouGijutu >28 yamaguti 190823 1806 i4k6f2cA \>20 yamaguti 190803 1721 Xl6OoRO0 > : >>> ハイデルベルクニューロモルフィックコンピューティングプラットフォームへのHTMモデルの移植 >>> _ttp://rio2016.2ch.net/test/read.cgi/future/1548169952/26-37#-52# _ttp://rio2016.2ch.net/test/read.cgi/future/1552014941/69-81#67-89# >>> >>> >>> Google 翻訳 _ttp://webcache.googleusercontent.com/search?q=cache:arxiv.org/pdf/1511.00083 >>> > : >>> なぜニューロンは何千ものシナプスを持っているのか、新皮質に於けるシーケンス記憶の理論 >>> >>> Jeff Hawkins *、Subutai Ahmad Numenta、Inc、レッドウッドシティー、カリフォルニア州、アメリカ >>> *対応する著者のEメール:jhawkinsATnumenta、sahmadATnumenta >>> >>> >>>キーワード:新皮質、予測、新皮質理論、アクティブな樹状突起、シーケンス記憶 >>>この原稿のバージョンは、2015年10月30日現在で公開 : _ttp://rio2016.2ch.net/test/read.cgi/future/1564778477/19-28#-35# 1 _ttp://rio2016.2ch.net/test/read.cgi/future/1566534326/28-45#-50# 2.1 訂正 >、生物学的ニューロンがそれらのシナプス数千個及びアクティブな樹状突起をどのように使用するかを我々は理解 要 。 >細胞がアクティブになるよりも、しばしば先行する何百ものパターン、を認識する事を各ニューロンは学 >図1 C) 樹状突起と NMDA スパイクとを同時検出器其々シナプス 1 セット付のアレイを伴った HTM モデルニューロンはモデル化する(それぞれ数個しか図示されていな >シナプス少なくともθ個がアクティブになる場合即ち、シナプス少なくともθ個と現アクティブセルとが一致する場合、パターンをセグメントが認識すると我々は言います。 | 17 yamaguti 190803 1719 Xl6OoRO0 \ \ \ \>22 yamaguti 190607 0950 4Z3mBigD |||||>581 ー 190519 2246 kr2lGsT6 |||||>AI( ) 人間のような●の感覚を自ら発達さ(ドイツ研究 |||||>_ttp://www.excite.co.jp/news/article/Karapaia_52274399/?p=4## ||||| |||||>523 ー 190519 0451 HW6bjAq0 ||||||●の感覚を自ら発達さ( |||||>_ttp://karapaia.com/archives/52274399.html ||||| |||||>155 ー 190515 0546 hZvL0Hpx ||||||ニューラルネッ は人間が持つ「量感覚」 を理●解できるかも |||||>_ttp://ai-scholar.tech/treatise/math-ai-145/ ||||||「 研究 、物体を認識 訓練 だけの ーラルネッ 、量感覚 ーロンが自発的に発達 |||||| |||||>教えてない AIが 「●の概●念」に目覚 [ |||||>_ttp://leia.2ch.net/test/read.cgi/poverty/1557836992/## ||||||■AIが教えられ なく、●の概●念を理● ||||||■数は抽象的な概念で、数えるなどの行為を経ずに瞬時 判断 高度な思考活動 ||||||■ 、AIは視覚情報用いた学習中に、ネッ 内の数に関するユニットが突然反応し「●」の概●念を理● ||||| : |||| : 体細胞 : 細胞体 細胞層 : セルラレイヤ 配列 : シーケンス 遠位樹状 近位樹状 基礎樹状 基本樹状 先端樹状 頂端樹状 心尖樹状 : 末梢樹状 主要樹状 基底樹状 基底樹状 尖端樹状 尖端樹状 尖端樹状 ( 尖樹状 ) A 細胞層はシーケンスを学ぶ 2/3 4 5 6 ↓ ? B 学ぶ前に B 学習前 A B C D ? あいうえお X B C Y ↓↓ ↓ 同じ列ですが、列ごとにアクティブなセルは1つだけです。 ↓↓ ↓ C 学んだ後 A B' C' D' ? あいうえお' X B " C " Y" ? ry 皮質細胞層中の配列を表す。 図2:皮質細胞レイヤ中のシーケンスを表す >>34 A) ? ry 細胞層に分けられる。 新皮質は細胞レイヤに分割される ? ry 、1つの汎用セル層の一部を示 ry 。 この図のパネルは、一般的セルラレイヤ 1 枚の一部を示 ? ry ために、パネルには1列に6個のセルを持つ21個のミニ ry を示 ry 。 わかりやすくする為に、1列に付き 6 セルを伴った、 21 ミニカラムのみをパネルは示 B) 入力シーケンスABCDとXBCYはまだ学習されていませ ? ry この例では ry 、まばらなミニカラムのセットを呼び出します。 各シーケンス要素は、この図では3つのみの、ミニカラムのスパースセットを呼起します。 ? ry 、ミニカラム内のすべてのセル ry 、シーケンス ry 。 入力が予想外の場合、そのミニカラム内の全セルがアクティブになります。これは、そのシーケンスを学習する前の場合 。 C) ry 、入力 ry された1つのセルのみが各列でアクティブです。 2つのシーケンスを学習した後、それら入力は同じミニカラムを起動しますが、B '、B' '、C'、C ''、D 'およびY' 'とラベル付けされた各列の中に於て 1 セルのみがアクティブです。 C 'とC' 'は一意であるため、YまたはDのどちらかの正しい高次予測を呼び出 できます。 ? 14年 >>34-35 >>34 >>35 A 次の入力の予測 A 入力 B ' 予測 B 入力 C ' 予測 B 複数同時予測 B 入力 C 'とC' ' 予測 C 入力 D 'とY' ' 予測 図3:近くのニューロンへの基本接続は次の入力を予測します A) 図2からの配列の1つを使用して、活性細胞(黒)および脱分極/予測細胞(赤)の両方が示される。 >>34-35 >>34 >>35 最初のパネルには予期しない入力Aが表示され、それが次の入力B 'の予測につながります(2番目のパネル ? ry 、偏光解消セル ry 。 後続の入力が予測と一致 場合、脱分極セルのみがアクティブになり(3番目のパネル)、これが新しい予測につながります(4番目のパ ? ry される外側シナプス結合が最も ry 。 予測された細胞のうちの1つによって使用されるシナプス横方向接続複数が最も右側のパネルに示され 。 ? ry は、多数のアクティブセルのサブセット ry 。 現実的なネットワークでは、予測されるすべてのセルは、アクティブセルの大集団のサブセットに対して15以上の接続 B) あいまいなサブシーケンス「BC」( ABCDおよびXBCYの両方の一部 )がネットワークに提示される。 最初のパネルは予期しない入力Bを示 、これはC 'とC' 'の両方の予測につながります ? ry 。両方のセットの予測セルがアクティブ ry 予測します(4番目のパネル)。 3番目のパネルは、入力Cの後のシステムを示 。予測セルセットの両方がアクティブになり、DとYの両方を予測しています(4番目のパ 複雑なデータストリームでは、通常多くの同時予測があります。 ? 15年 >>34-35 >>34 >>35 先端樹状突起 シーケンスB 'C' D 'のフィードバックバイアス ← 入力C 表現C ' ← 入力Y 期待と一致しません ? ry 先端樹状 ry は全配列を ry 。 図4: 尖端樹状突起への フィードバックはシーケンス全体を予測する 、図2と同じネットワークおよび表現 >>34-35 「先端樹状突起」と表示された領域は、新皮質の第1層に相当 。 全 細胞からの頂端樹状突起(図示せず)はここで終結する。 図 、次のように仮定 ? ry 示されているように、 ークは以前にシーケンス ry を学習した。 図2に示されたシーケンスABCDをネットワークは以前に学習した。 ? 学習されたシーケンスの間、頂 起に一定のフィ パターンが提示され、配列B'C'D 'に参加する細胞はそれらの頂 起上に プスを形成して一定のフィ パ を認識した。 学習済シーケンスに亘って尖端樹状突起へと提示され ( てい ) るコンスタントなフィードバックパターン、をそして認識する為にシーケンス B'C'D ' 参加各細胞はそれら尖端樹状突起上にシナプス編成した。 ードバック接続が学習された後、頂端樹状突起へのフィードバッ ーンの提示は、シーケンス内で順次アクティブになるすべてのセルによって同時に認識される ? ry 、偏光解消状態になります( ry 。 赤で表示 これらのセルは、脱分極します(左ペイン)。 新 フィードフォワード入力が到着すると、予測されたシーケンスに関連するスパース表現になります(中央のパネル ? ry パターンが予想されるシーケンスの一部として解釈 ry 、選択された列の ry 。 ードフォワードパターンを予想シーケンスの一部として解釈できない場合(右パ )、選択 カラムのすべてのセルがアクティブになり、異常を示します ? ry 、頂端フ クは、予想されるシ の一部として入力を解釈するように ークをバイアスし、入力が予想されるシーケンス ry しないかどうか検出する。 このようにして、尖端フィードバックはネットワークを、どんな入力も予想シーケンスの一部としての解釈をする様にバイアスし、入力がもしも予想シーケンス内の要素のどれにも一致しない場合を検出する。 >16 yamaguti 190803 1719 Xl6OoRO0 \ \ \ \ \>206 205 190516 2258 aLnc2HDn \>205 \| 27 yamaguti 0514 1314 2vGaUUWM \>49 yamaguti 190419 0256 CVBD0yuO |7>130 ー 190405 1357 +TcvRYcO |7|】 ドワ 人工知能研 閉 |7>_ttp://egg.2ch.net/test/read.cgi/bizplus/1554121214/240-248#(247)#299-303#(299,303)#345-364#(363)## |7| |7>に汎用人工知能に詳 |||||||| |7>240 名刺は切 190405 1541 CocGLBI2 ||||| : |7>お宅が汎用AI 理解してないだけ |7>大森秀樹氏の幾何学 新 視点(不確定性と非可換 |7>では数学は 脳が作 |7>自然数 も脳の直観 |7| |7>ようするに数学 普遍性はない |7>脳 離れては数学は実在しない : |7>放送大 線形代数 に |7>数学は ヒルベルトの形式主義 急速に脱出 \>と 記述 |7| |7>はヒルベ の抽象化 に \>普遍性が無 を言っ |7| |7>ようするに点集合の上部構造 の \>公理的集合論に普遍性はない |7| |7>放送大 教科書だけでな \>大森 氏も 指摘 |||||||| |||||||| _ttp://rio2016.2ch.net/test/read.cgi/future/1541837624/59-60#1489922543/286#1523134522776# TidouSetu ||| _ttp://rio2016.2ch.net/test/read.cgi/future/1504872499/134#120#100##138#146##1489922543/174## >150 >128 >112-116 # HiSuuri # Kazu=Maborosi , Tetugaku # TendouSetu 樹状突起 軸索 0.0 0.3 1.0 シナプス「永続性」 0 1 ? シナプス重量 シナプスウェイト ? ry 図5:新シナプスの成長による学習 ? ry 、一連の潜在的シナプスからの新しいシナプス ry 。 HTMニューロンでの学習は、潜在的シナプスのセットからの新シナプスの成長によってモデル化 。 「永続性」値は各潜在的シナプスに割り当てられ、 プスの成長を表 す。 学習は、永続性の値を増減 によって行われます ? ry 重みは、永続 ry 設定されたバイナリ値です。 シナプスの重みはバイナリ値で、永続性がしきい値を超えている場合は1に設定されます。 ? 17年 階層的時間的記憶理論 ( HTM ) _ttp://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#nyuumenta 短縮版 _ttp://rio2016.5ch.net/test/read.cgi/future/1427220599/539-676# _ttp://rio2016.2ch.net/test/read.cgi/future/1489740110/22-30# _ttp://rio2016.2ch.net/test/read.cgi/future/1481407726/6-82 世界の構造を学習する事を新皮質内カラムが如何にして可能たらしめるかの理論 _ttp://rio2016.2ch.net/test/read.cgi/future/1547171604/43-67# 投影 : 投射 2.2。 ニューロンのネットワークはシーケンスを学ぶ ? 新皮質のすべての組織は活動的な樹状 ry ニュ で構成されているので、それは新皮質がするすべての根底にある共通 ry 。 ィブな樹状突起と何千ものシナプスとを持つニューロンで新皮質の全組織が構成 のでそれは、新皮質がする全ての事の根底に横たわる共通のネットワーク原理があることを示唆 ? これは、どのような ーク特性がそれが感覚的推論、予測、言語、および運動計画の必要な構成要素であるほど基本的であるかという問題につながります。 この事は、感覚推論と、予測と、言語と、加えて運動プランニングと、の必要構成要素である程に基本的なそれ、とはどの様なネットワーク特性であるかという問いへと導きます ? ry 基本的な操作は 我々は、全ての新皮質組織の最も基本的なオペレーションはパターンのシーケンスの学習と想起である を提案 (H and Blakeslee、2004) 。 これはKarl Lashleyが「脳生理学の最も重要で最も無視され 問題」と有名に呼んでいたものです (Lashley、1951 ? ry 細胞層が共通の配列記憶ア の変形形態を実装すること ry 。 より具体的 、本発明者らは、新皮質の各細胞レイヤが共通シーケンス記憶アルゴリズムのバリエーションを実装してい 提案 。 我々は、セルラレイヤが異なる目的のためにシーケンスメモリを使 を提案 。それが、セルラレイヤがサイズ及び接続性のような詳細において異なる理由 。 ? 本稿では、その ョンを詳しく説明せずに、基本的なシー メモリアルゴリズムであると考えていることを説明します。 本稿で我々は、我々が信じる基本的シーケンスメモリアルゴリズムを、そのバリエーションの細緻にまで立入らずに、示します。 我々は、新皮質をモデル化 ために我々のネットワークに要求されるいくつかの特性を列挙 により、配列記憶の探索を始めた 1) オンライン学習 学習は継続的でなければなりません 世界の統計が変化した場合、ネットワークは新しい入力ごとに徐々にそして継続的に適応 要 2) 高次予測 ? ry シーケンスで正 ry をするには、過去 ry 。 複雑なシーケンスを伴って正しい予測を成すには、過去からの文脈情報を取り込む能力 要 。 ネットワークは、最良の予測 ために必要な時間的コンテキストの量を動的に決定 要 。 「高次」という用語は、この性質を有する「高次マルコフ連鎖」を指す。 3) 複数同時予測 ? ry 、重複した ry 。 自然データストリームには、多くの場合、オーバラップした分岐シーケンスがあります。 したがって、シーケンスメモリは同時に複数の予測を行う必要 ? 4) 地域 4) ローカル学習ルール ? シーケンスメモリは、各ニュ にローカルな学習規則のみを使用する必要があります。 シーケンス記憶が使用する学習規則は各ニューロンにローカルなものだけでなければなりません ? グローバルな目的関数を必要と ry 。 グローバルオブジェクト的関数を必要とせずに、規則は空間的にも時間的にも局所的でなければなりません 5) 堅牢性 メモリは、高レベルのノイズ、ニューロンの損失、および入力の自然な変動に対する堅牢性を示すはずです。 これらの条件下でのパフォーマンスの低下は緩やかになるはずです これらすべてのプロパティは、データを連続的にストリーミングするという状況で同時に発生 要 。 4 2.2.1。 ミニコラムとニューロン:2つの表現 高次シーケンスメモリは2つの同時表現 要 。 一方はネッ ークへのフィードフォワード入力を表し、他方は特定の時間的文脈における ードフォワー 入力を表す ? ry この要件を説明 ために、2 抽象シーケンス「ABCD」と「XBCY」を検討 。各文字は、ニュ の母集団の中のアクティベーションのスパースパターンを表 す ? ry が学習 ry 」と共に提示 ry 」と共に提示 ry 。 これらのシー が一旦学習されると、ネッ は、 「ABC」を提示されたときに「D」を予測し、 「XBC」を提示 ときに「Y」を予測するはずである ? したがって、サブ ry 」の間の内部表現は、2つの場合で異なる必要があ 。 そうでないと、「C」が表示された後に正しい を行うことが ry 。 従って、その 2 つの場合に於てのそれらサブシーケンス「BC」の間のそれら内部表現は異ならねばならない。 さもなくば「C」提示後に、正しい予測を成す事ができません。 ? ry 層にどのように表れているかを示していることを示 図2は、これら2つの表現が皮質ニューロンの細胞層に表れている事を我々がどの様に提案しているかを示 図2のパネルは、新皮質の単一細胞層を通るスライスを表す(図2A >>34-35 >>34 >>35 わかりやす ために、パネルは大幅に簡略 ? 図2Bは、シ が学習される前に ークが2つ ry をどの ry かを示す。 2 つの入力シーケンスをネッ ークが ーケンス学習前にどの様に表すかを図 2B は示す。 図2Cは、シー が学習された後に ークがどのように同じ入力を表すかを示 ? ークへの各 ードフォワード入力は、アクティブミニカラムのスパースセットに変換されます。 ( 新皮質のミニカラムは複数の細胞層にまたが る。 ここでは、1 細胞層の 1 ミニカラム内のセルのみを我々は参照 ) ミニカラム内のすべてのニュ は、同じ ードフォワード受容野を共有 ? 予期しない入力が到着すると、選択 ミニカラムの中の全セルが入力パターンを認識してアクティブになります ? しかし 以前に学習されたシーケンスの文脈では、ミニカラム内のセルのうちの1つまたは複数は脱分極する事になる。 ? 脱分極細胞は活動電位を生成する最初の細胞になり、近くの他の細胞を抑制 。 したがって、予測された入力は、特定の位置において、特定の順序で、特定の要素に固有の非常にまばらなパターンの細胞活性化をもたらす >>34-35 >>34 >>35 [ここの図2原稿の終わりを見る] ? ry 2.2.2。 基底シナプスはシーケンス記憶の基礎である この理論 、細胞はそれらの基底シナプスを使って入力パターン間の遷移を学習 。 新 ードフォワード入力のたびに、いくつかの細胞はそれらの近位シナプスを介して活性になる ? ry そして再びパターンを見ると、 極し、それによって次 ry おけるそれら自身 他の細胞は、それらの基底 プスを使用し この活性パターンを認識することを学び、そしてそのパ を再び見ると、脱分極しそれによって、次の入力に於ける彼ら自身の ードフォワード活性化を予測 ードフォワード入力はセルをアクティブにし、基礎入力は予測を生成 。 次の入力が現 予測と一致する限り ーケンスは継続 (図3 >>36 図3Aは、 ィブセルと予測セルの両方を示 、ネッ ークは以前に学習したシー に従う >>36 [ここの図3原稿の終わりを見る] 多 場合、ネッ ークは複数の同時予測 。 、シーケンス「ABCD」と「XBCY」を学習した後、システムをあいまいなサブシーケンス「BC」だけにさらすとします ? ry 、システムに「D」と「Y」の両方を同時に予測させます。 この場合、「D」と「Y」との両方を同時にシステムが予測する事を我々は欲する。 図3Bは、入力があいまいなときにネッ がどのように 複数の予測 示 >>36 ? 誤りの可能性が低いときに行うことができる同時 誤り可能性小なまま成せる同時予測の数も、式(1)によって計算 _ttp://rio2016.2ch.net/test/read.cgi/future/1566534326/39 予測は非常にまばら 傾向 ので ークが混乱 なく同時に何十ものパターンを予測 可 ? スパース表現 入力がいずれかの予測に一致すると、正しい過疎表現になります ? 入力がどの予測にも一致しない場合、カラム内の全セルが ィブになり、予期せぬ と示します ? ミニカラム内のすべてのセルは同じ ードフォワード応答を共有しますが、それらの基底 プスは異 パターンを認識 ? したがって、ミニカラム内のセルは、学習された異なる一時的なコンテキストで一意に応答し、入力が予想される場合は全体的アクティビティ が疎になります。 両 観察 (Martin and Schr er、2013; Vinje and Gallant、2002; Yen et al。、2007 図3Aの最後のパネルのセルのうちの1つについて、セルが予測 に使用した3 接続を示 >>36 ? ry 、細胞は活動細胞 実際のニューロンでは、そして我々のシミュ では、細胞 1 つはアクティブ細胞のより大きな集団のサブセットへの15から40の接続を形成するでしょう 2.2.3。 頂端シナプスはトップダウンの期待を生み出す ? 新皮質領域間のフィードバック軸索は、細胞体 ry 5に ry 細胞の先端樹状突起とシナプス(層1)を形成することが多い。 シナプス ( レイヤ 1 ) 形成を新皮質リージョン間のフィードバック軸索は、細胞体が層2、3、 5 にある錐体神経細胞、の尖端樹状突起と共にすることが頻繁 。 これらの ードバック接続が何らかの形の期待またはバイアスを実行 と長い間推測されてきた(Lamme et al。、1998)。 我々の ーロンモデルは ップダウンの期待のメカニズムを示唆 。 図4は、頂端樹状突起への安定した ードバックパターンが、シーケンス内の複数の要素をすべて同時に予測 方法を示 >>37 新 ードフォワード入力が到着すると、それは予測シーケンスの一部として解釈されます ? ードバックは入力を特定の解釈にバイアスします。 繰り返しますが、 まばら 、多 パ 同時に予 >>37 [ここの図4原稿の終わりを見る] したがって、同時に発生 2種類の予測 ? 基底樹状突起への横方向の連結は次の入力を予測し、尖端側樹状突起へのトップダウンの連結は複数 ーケンス要素を同時に予測 ? ry )、おそらく推論 ry より微妙な解釈につながる ry 。 先端 と基底樹状突起との間の生理学的相互作用は活発な研究分野 (Larkum、2013)、推論や予測におけるそれらの役割のよりニュアンス重視な解釈を恐らくリードする 。 ただし、図2 3 4に示されているメカニズムが、その最終的な解釈において引き続き役割を果たす可能性が高いことを提案します。 >>34-37 2.2.4。 シナプス学習則 私たちの ーロンモデルは、ほとんどのニューラルモデル の学習則に2 変更 要 ? 第一に、学習は「潜在 ry 成長させ除去することによって行われる( ry 。 一 「潜在的な」シナプスのプールから プスを成長させる事と除去する事とによって学習が起きる(Chklovskii et al。、2004)。 二 ヘブの学習とシナプスの変化は ーロン全体ではなく、樹状突起セグメントのレベルで起こる(Stuart and H sser、2001)。 潜在的シナプス ? ニュ が活動のパ ry ーンで活動的な細胞のサブセットに接続する一組の並置 ry )を必要とする。 ーロンがアクティビティパターンを認識するためには、認識されるパターンに於てアクティブな細胞、のサブセットへと接続する並置されたシナプス(典型 15から20)一組 要 5 ? ry された一連の新しいシナプスの形成によっ 新 パターンを認識 の学習は、樹状セグメント上に配置された新シナプスのセットの編成によって達成 ? 図5は、シミュ ry おける新しいシナプスの形成をモデル化する方法を示 図 5 が示すのは、シミュ HTMニューロンに於ける、新シナプスの編成を、我々がモデル化する方法です。 >>39 ? 各樹状突起セグメントについて、樹状 ry ントとシナプスを形成する可能性がある ーク内の他の細胞との間の一連の「潜在的な」 プスを維持する( ry 。 樹状突起セグメントと、そのセグ とのシナプスを潜在的に可能としたそのネッ ーク内他細胞と、の間の「潜在的」 プスセットを我々は各樹状突起セグ に維持する(Chklovskii et al。、2004)。 潜在的シナプスの数は実際のシナプスの数よりも大 ? ry プスに割り当 プスの成長段階を表す「永続性」と呼ばれるスカラー値を、それぞれの潜在的シナプスに我々は割当 。 ? ゼロ ry 値は、シナプス ry 突起を表しますが、それは成長を始めていません。 プスを形成する可能性を持つ軸索と樹状突起とを、ゼロに近い永久値は、表しますがそれは成長を始めさせていません。 1.0の永続値は、大きな完全に形成されたシナプスを持つ軸索と樹状突起を表 す >>39 [図5の原稿の終わりを見る] 永続値は、ヘブ風の規則を使用して増減さ 。 _ttp://rio2016.2ch.net/test/read.cgi/future/1521732239/18# RihaKigen 2018 # YuugouKigen ? 永続値が0.3などの閾値 もし 0. 3 など永続値が閾値を超える場合、シナプスの重みは1 、永続値が閾値以下である場合、シナプスの重みは0 。 閾値はシナプスの確立を表しますが、容易に消える可能性 ? ry 、しきい値の永続値を持つシナプスと同じ効果があります ry 。 永続値が1.0のシナプスは、閾値な永続値なシナプスと同じ効果を持ちますが、それほど簡単には忘れられません。 スカラー永続値を使用すると、ノイズがある場合のオンライン学習が可 。 以前には見られなかった入力パ はノイズかもしれませんまたはそれは将来繰り返される新しい傾向の始まりかもしれません。 ? 新 プスを成長 によって ークは新 パターンに最初に遭遇したときにそれを学習し始め できるが、新 ーンのいくつかの提示の後にのみ行動を異にする。 ? しきい値を超えて永続性が増す ことは、他のものよりも経験したパターンは忘れるのにより長くかかる 事を意味します。 ? ry ニューロンまたはシナプスの ry 。 HTMニューロンおよびHTMネッ は、分布したパターンの細胞活性に依存しているので、任意の1つのニューロン又はシナプス、の活性化強度はそれほど重要ではない。 したがって、HTMシミュ では、ニュ 活性化とシナプスの重みを2値 モデル化 。 さらに、生物学的シナプスが確率論的 はよく知られている(Faisal et al。、2008)ので、新皮質理論はシナプス効果の正確さを要求 できない。 ? スカラー そうであれどスカラー状態と重みはパフォーマンスを向上 可能性がありますが、理論的な 必須ではなく、 シミュ はそれらがなくてもうまく機能 。 HTMネットワークシミュ 正式な学習規則は、材料と方法 ョンに記 。 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.1 2024/04/28 Walang Kapalit ★ | Donguri System Team 5ちゃんねる