X



(情報科学)技術的特異点と科学・技術等 1 (ナノテク) [転載禁止]©2ch.net
0001オーバーテクナナシー垢版2015/03/25(水) 03:09:59.43ID:JLiLnBxr
※このスレは、下記の本家スレから分かれた分家スレです。転載に関する規定は本家に準じます。

■現在の本家スレ
(強いAI)技術的特異点/シンギュラリティ(世界加速) 13 [転載禁止]c2ch.net
http://wc2014.2ch.net/test/read.cgi/future/1426647717/


本家スレの話題のうち、科学・技術系で『専門的な』話題を特に扱います。

スレ成立のきっかけ
・技術的特異点の関わる分野は非常に幅広く、浅い部分から深い部分までレベルも様々で、多様な人が集まっている
・上記を前提として、科学・技術系で専門的な内容に集中しやすいように、ノイズ(特に不毛な論争)を減らしたい
・これにより、興味がある者同士の意思疎通困難性、過去ログ参照の困難性などが解消される

ただし性質上、本家との区分は厳密には困難です。
むしろ同じ内容が扱われても構いません。
本家は雑談寄り、ここではより専門色を強く、とご理解下さい。


■姉妹スレ
(AIとBI)技術的特異点と経済・社会等 1 (天国or地獄) [転載禁止]©2ch.net
http://wc2014.2ch.net/test/read.cgi/future/1427004849/

■関連スレ
人工知能
http://wc2014.2ch.net/test/read.cgi/future/1286353655/
0597yamaguti~貸垢版2016/12/17(土) 01:24:35.33ID:6O1Nu3vi
>502 : yamaguti~kasi 2016/12/16(金) 12:12:06.60 ID:2MPdD9+O
> 価値貯蔵システム = 記憶システム
> ネイティブ記憶システム = ネイティブマスターアルゴリズム

>512 : yamaguti~kasi 2016/12/16(金) 12:40:04.58 ID:2MPdD9+O
>> 近似三次元空間 + α
> 価値貯蔵システム ≠ 物質システム
> 価値貯蔵システム ≠ 数値システム

raw 記憶 テンポラル記憶 : HTM
→ 非物体サービス価値ライブ貯蔵

情報物理統一動記憶システム ≒ 科学哲学大統一理論 = raw マスターアルゴリズム


http://rio2016.2ch.net/test/read.cgi/future/1475986330/501
http://rio2016.2ch.net/test/read.cgi/future/1475986330/380-381
0598yamaguti~貸垢版2016/12/17(土) 23:58:53.28ID:6O1Nu3vi
>>597 http://rio2016.2ch.net/test/read.cgi/future/1481497226/518
>499 : yamaguti~kasi 2016/12/16(金) 11:54:38.67 ID:2MPdD9+O
> http://rio2016.2ch.net/test/read.cgi/future/1479349196/378# SeisanButuUrimono
>
> × 価値を評価するモノサシ、評価基準として通貨は必要
> △ 価値を評価するモノサシ、評価基準として何かは必要
> ○ 価値を評価する、何かは必要

帳簿ベース価値貯蔵 ( 経済学 ) ⇔ 動的テンポラル記憶システムベースライブ価値貯蔵
0599597垢版2016/12/20(火) 00:26:15.67ID:ymkk5AtR
>>597-598
高レイヤ文脈用テンポラル記憶選択機構 ( 海馬系 )
http://m.youtube.com/watch?v=3KrArkmPo4A
北村貴司(きたむらたかし) マサチューセッツ工科大学 上級研究員 【日本神経科学会 市民公開講座・脳科学の達人2016】

HTM アクティブ非アクティブ系根源文脈回路大規模専用回路化 ?
>>562-590#564#578-579
http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#26#28-30#32#38-41#54#63#70#73#77#80

TRONCHIP 間接アドレッシング ( マスターアルゴリズム 自発的対称性の破れ ) 機構 MMU キュー応用
>>379 >>479-504#480#483#497 >>582
http://rio2016.2ch.net/test/read.cgi/future/1478753976/596#758
http://rio2016.2ch.net/test/read.cgi/future/1475655319/726#837
http://rio2016.2ch.net/test/read.cgi/future/1476925488/358#510-511

AskJeeves に買収 ? された企業の特許 ( 非リンクスコアリング技術 )
0601596垢版2016/12/20(火) 23:56:43.52ID:ymkk5AtR
Page 25

する。 ry これら2つのアクティブ状態以上の詳細なモデル化の必要性はない ry
個々のアクション状態の強さの程度、アクティビティの発生頻度を表すスカラー量
などはモデル化する必要性を見いだせない。分散表現の利用は、
セルのアクティビティの程度を表すスカラー量をモデル化することを凌駕 ry

樹状突起セグメント
HTM セルは比較的リアルな( ry 複雑な)樹状突起モデルを持つ。各 HTM セルは理論的に
一つの主要樹状突起セグメント29と 10~20 個の末梢樹状突起セグメント30を持つ。
主要樹状突起セグメントはフィード・フォワード入力 ry
末梢樹状突起セグメントは周辺のセルからの横方向の入力 ry
抑制セルは同じカラム中の全てのセルが
類似のフィード・フォワード入力に対して応答するように強制する。
単純化のため、各セルごとの主要樹状突起セグメントを取り除き、
同じカラム中のすべてのセルで共有する一つの主要樹状突起セグメントで置き換えた。
空間プーリング関数(後述)はカラム単位で、共有の樹状突起セグメントに対して作用する。
時間プーリング関数はカラム中の個々のセル単位で、末梢樹状突起セグメントに対 ry
。生物学的にはカラムに接続するような樹状突起セグメントは存在しない ry
この単純化は同等 ry
0602601垢版2016/12/20(火) 23:57:21.05ID:ymkk5AtR
シナプス
ry 二値のウェイトを持つ。生物学上のシナプスは可変値のウェイト ry 確率的・不安定 ry
生体ニューロンはシナプスのウェイト値の正確な値に依存しているはずがない ry
。HTM の分散表現及び我々の樹状突起の計算モデルを利用すれば、
HTM シナプスに二値のウェイトを割り当てても何ら悪影響はないはずである。
シナプスの形成及び切断をモデル化 ry 2つの追加 ry ニューロサイエンスから援用した。
一つ目は、シナプス候補の概念である。これは樹状突起セグメントに十分近い位置を通る
すべての軸索を表し、シナプスを形成する可能性があるものである。
二つ目は、永続値である。これは各シナプス候補に割り当てられたスカラー値である。
ry 軸索と樹状突起の間の接続の度合 ry 度合は生物学的には、完全に分離した状態から、
接続はしていないがシナプスを形成し始めた状態、最小限にシナプスが接続した状態、
大きく完全にシナプスが接続された状態に至るまでの範囲を取る。シナプスの

28 a slower, steady rate of action potentials in a neuron
29 proximal dendrite segment。樹状突起のうち、ニューロンの中心部に近い部分。
30 distal dendrite segment。樹状突起のうち、末端に近い部分。
distalは末梢(まっしょう)・末端の意味。ちなみに末梢神経は peripheral nerve という。
0603槙林聖二垢版2016/12/21(水) 17:44:39.98ID:tbiKezrL
僕の名前は槙林聖二。
職業はテロリスト。
サイレントテロで経済をどん底に叩き落とそうぜ50
http://tamae.2ch.net/test/read.cgi/eco/1480500004/
東京都出身・在住。
http://i.imgur.com/hlM8Gpq.jpg
趣味は読書。
http://i.imgur.com/8JjN8GT.jpg
特技はシステマ。
http://i.imgur.com/Esi7ffh.jpg
好物はチキンティッカマサラ。
Chicken Tikka Masala (British National Dish)
Olympic Recipe チキンティッカマサラ レシピ
https://www.youtube.com/watch?v=lLrICFYCy_w
どうかよろしく。
0604601垢版2016/12/22(木) 00:34:59.55ID:kuCFO/r6
Page 26

永続値は 0.0 から 1.0 まで ry 。学習にはシナプスの永続値の増加や減少が含まれる。
シナプスの永続値がしきい値を超えたら、ウェイト値 1 で接続されたことを表す。
しきい値より下回っていたら、ウェイト値 0 で切断 ry

概要

仮に読者が HTM リージョンだ ry 。貴方の入力は数千ないし数万のビット ry
センサ入力データや、階層構造の下位の他のリージョンから来たデータである。
それらは複雑にオン・オフしている。これらの入力に対して貴方は何が出来るか?

我々はその答えを単純な形態で既に説明した。
各 HTM リージョンはその入力の共通のパターンを探し、 ry シーケンスを学習する。
シーケンスの記憶から、各リージョンは予測 ry
もう少し説明 ry 以下の3ステップ ry

1) 入力の疎分散表現を作成する
2) 以前の入力の文脈に基づいて、入力の表現を作成する
3) 以前の入力の文脈に基づいて、現在の入力からの予測をする
0605604垢版2016/12/22(木) 00:35:51.05ID:kuCFO/r6
ry 詳細 ry

1) 入力の疎分散表現を作成する
リージョンへの入力を想像するには、それを巨大なビット列と考えるとよい。
脳内ではこれらはニューロンからの軸索にあたる。任意の時点で、
これらの入力のある部分はアクティブ(値1)、他の部分は非アクティブ(値0)である。
アクティブな入力ビットの比率は変化する。例えば0%から60%としよう。

HTMリージョンで行う最初の事は、この入力を疎な新しい表現に変換 ry
。例えば、入力のうち40%がオンかも知れないが、新しい表現では2%だけがオン ry
。HTMリージョンは論理的にはカラムの集合 ry カラムは1又はそれ以上のセルから成る。
カラムは論理的には2Dの配列状に配置できるが、これは要件ではない。
ry 各カラムは入力ビットのユニークな部分集合(普通は他のカラムと重なるが、
完全に同じ部分集合になることはない)に接続される。結果として、
異なる入力パターンからは、レベル全体では異なるカラムのアクティベーションを得る。
最も強いアクティベーションを得たカラムは、
弱いアクティベーションを得たカラムを抑制、ないし非アクティブ化する。
(抑制は非常に局所的範囲からリージョン全体までの範囲で変化する円の ry )入力
0606染谷伸晃垢版2016/12/22(木) 13:42:14.88ID:xB2eN/Pk
僕の名前は染谷伸晃。
職業はテロリスト。
サイレントテロで経済をどん底に叩き落とそうぜ50
http://tamae.2ch.net/test/read.cgi/eco/1480500004/
東京都出身・在住。
http://i.imgur.com/hlM8Gpq.jpg
趣味は読書。
http://i.imgur.com/8JjN8GT.jpg
特技はシステマ。
http://i.imgur.com/Esi7ffh.jpg
好物はチキンティッカマサラ。
Chicken Tikka Masala (British National Dish)
Olympic Recipe チキンティッカマサラ レシピ
https://www.youtube.com/watch?v=lLrICFYCy_w
どうかよろしく。
0609yamaguti~貸垢版2016/12/25(日) 09:55:12.32ID:HhtfNWQ8
> 452 : yamaguti~kasi 2016/12/25(日) 09:43:54.36 ID:HhtfNWQ8
> ○ 弱い AI 組合せ方式 : 実用上問題ない ( + 高効率 ) → 日ノ本 悲願のプラットフォーム掌握 ( AI )
> × 他の方式 ( 全脳型 ) : 考慮に値せず ( 上記方式欠点なし )
>
> ↑ 弱い AI 応用 基盤 着々 ( 国家予算 )
> 松尾先生 : 恐らくマルチビューマルチタスク等にも関わる深層学習次世代理論でご先行
> 山川先生 : ( 全脳型応用にせよ ) Deep PredNet ( 組合せ型深層学習拡張 + HTM 要素 ? )
> http://rio2016.2ch.net/test/read.cgi/future/1427220599/581


>763 : YAMAGUTIseisei 2016/09/30(金) 18:17:20.94 ID:/EmvfkU+
>http://rio2016.2ch.net/test/read.cgi/future/1472305818/782#785
>http://rio2016.2ch.net/test/read.cgi/future/1472305818/806-808
0610609垢版2016/12/25(日) 23:41:11.12ID:HhtfNWQ8
>>609
> 449 : YAMAGUTIseisei~kasi 2016/12/25(日) 03:30:09.16 ID:HhtfNWQ8
> シンギュラリティスレに相応しい大切な議論 ( 議題 )
> ※ 但し 失礼ながら些か脱線の傾向 ( 議題の中の肝の部分が大切 )

>496 : yamaguti~kasi 2016/12/25(日) 23:35:42.88 ID:HhtfNWQ8
> >>452
> 流れ
> LSf1DgBH 氏文脈

http://rio2016.2ch.net/test/read.cgi/future/1476925488/210# SaiRyuudoKa
http://rio2016.2ch.net/test/read.cgi/future/1476925488/949# Sukoaringu
0611yamaguti~貸垢版2016/12/28(水) 19:25:08.56ID:cR1KnFY8
http://rio2016.2ch.net/test/read.cgi/future/1481515915/274#290
>274 : オーバーテクナナシー 2016/12/23(金) 16:01:53.21 ID:qoXUV7bO
> ディープラーニングに必要な計算量を30分の1に省力化、デバイスに搭載できる人工知能 ─三菱電機インタビュー
>http://iotnews.jp/archives/44190

> ry 係数が0になる部分をできるだけ増 ry 計算を簡略化 ry
> ─重みづけに使う係数が0になるところを増やして計算をできるだけ簡略化 ry
> ry データの特徴を分析して、その枝の部分でも重要な枝 ry 決め打ちで残します。
> ─これは人が残すのでしょうか?
> 現時点では人が枝を選別しています。枝を大幅に削減しても性能が落ちない事を理論的に証明 ry
> 数字がたくさんあるものは「密な行列」 ry 、従来のディープラーニングと一緒。
> そこで値をほとんど持たない「疎な行列」をどう構成 ry
> ─その太い幹っていうのを見切るところがすごく難しそうです。 ry 、どれだけ残して、どれだけ切 ry
> ry 、例えば入力のデータに対して主成分となり得るような重要なデータの個数がある程度限定 ry
> 、情報を欠損させないで中間層に伝搬させる事は可能 ry 証明 ry 1/30に削減しても同様の効果 ry
> ─これはこのデータだからという事はないのでしょうか?
> ry 制約条件はありません。
> ─人の顔の認識などデータが複雑だと難しいということはないのでしょうか?
> ry 、さっきのガンマに依存しないっていうのは実は驚異的 ry


http://rio2016.2ch.net/test/read.cgi/future/1427220599/541#555#562-563#570-571#578-579#604-605
http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#27#30-32#34-38#63#75#79#80

#16#26#27#30-32
0612581垢版2016/12/28(水) 19:30:59.82ID:cR1KnFY8
>>581
深層学習
> 入力応用 ? ( 一層切出し 多層化 ? )

> ソフトウェアコード応用 ( 一層切出し 多層化 ) ?
0615604垢版2017/01/02(月) 01:36:40.90ID:DMzazahP
Page 27

の疎表現は、抑制の後でどのカラムがアクティブでどれが非ア ry
。例え入力ビットのうちアクティブなビットの数が大幅に変化した場合であっても、
相対的に一定の割合のカラムがアクティブになるように抑制関数が定義される。

図 2-1 カラムとセルからなる HTM リージョンの例。リージョンの一部分のみ ry
。各カラムは入力のユニークな部分集合によるアクティベーションを受け取る。
最も強いアクティベーションを受けたカラムが他の弱いアクティベーションを抑制する。
結果は入力の疎分散表現である。(アクティブなカラムは灰色で示した)

ry ほんの少しの入力ビットが変化したなら、
いくつかのカラムでは少し多く又は少し少ない入力ビットがオン状態になるが、
アクティブなカラムの集合はあまり大幅に変化しないだろう。
よって似た入力パターン(アクティブなビットの共通部分が非常に多いもの)からは
アクティブなカラムの比較的安定した集合に対応付けられる。
コード化がどのくらい安定 ry 、各カラムがどの入力に接続しているかに大きく依存 ry
この接続関係は、後述する方法で学習する。
これらのすべてのステップ(入力の部分集合から各カラムへの接続関係を学習し、
各カラムへの入力レベルを決定し、アクティブなカラムの疎な集合をえらぶために抑制 ry )
を空間プーリングと呼ぶ。 ry 空間的に類似(アクティブなビットの共通部分が多い)の
パターンがプールされる(それらが共通の表現に互いにグループ化される)ことを意味する。
0616615垢版2017/01/03(火) 02:58:43.04ID:igW+0jZp
Page 28

2) 以前の入力の文脈に基づいて、入力の表現を作成する
リージョンで行われる次の機能は、入力をカラムで表現したものを、
過去からの状態ないし文脈を含む新しい表現に変換 ry
。新しい表現は各カラムの一部のセル、普通は1カラムにつき1つのセルを
アクティブにすることで得られる(図 2-2)。

「I ate a pear」と「I have eight pears」31の二つの話し言葉を聞く場合 ry
「ate」と「eight」は ry 発音が同じ ry 同じ反応をするニューロンが脳内のどこか ry
また一方、 ry 異なる文脈にあると反応するニューロンが脳内の他のどこか ry
。「ate」という音に対する表現は「I ate」 ry 「I have eight」 ry 異なる ry 。
「I ate a pear」と「I have eight pears」の二つの文を記憶したと想像してみよう。
「I ate…」 ry 「I have eight…」 ry 異なる予測 ry よって ry 異なる内部表現 ry

ある入力を異なる文脈では異なるコード変換をするというこの原理は、
認知とふるまいの普遍的な特徴であり、HTM リージョンの最も重要な機能の一つ ry
0617616垢版2017/01/03(火) 03:06:42.48ID:igW+0jZp
ry カラムは複数のセルからなっている。
同じカラムのすべてのセルは同じフィード・フォワード入力を受け取る。
ry 。アクティブな各カラムごとに、どのセルをアクティブ ry 選択するかによって、
完全に同じ入力に対して異なる文脈では異なる表現をすることができる。
例 ry 。各カラムは 4 つのセルからなり、各入力は 100 個のアクティブなカラムで表現 ry
。カラムの中で一つのセルだけが一度にアクティブであるとすると、
完全に同じ入力に対して 4100 通り ry
。同じ入力は常に同じ組み合わせの 100 個のカラムがアクティブになるが、
文脈が異なればカラム中の異なるセルがアク ry 非常に大きな数の文脈を表現 ry
、これらの異なる表現はどのくらいユニーク ry ?
4100 個の可能なパターンのうちからランダムに選択した 2 個は、
ほとんどの場合、約 25 個のセルが重複 ry
よって同じ入力を異なる文脈で表した 2 つの表現は、
約 25 個のセルが共通で 75 個のセルが異なっており、容易に区別 ry

HTM リージョンの一般的な規則 ry
カラムがアクティブ ry 、そのカラム中のすべてのセルを見る。
もしそのカラム中の一つ又はそれ以上のセルが既に予測状態であれば、
それらのセルだけがアクティブになる。もしそのカラム

31 「私は梨を食べる」と「私は 8 個の梨を持っている」

>>561 >>578-579 >>590 >>599-600 >>604
0618616垢版2017/01/05(木) 05:20:22.69ID:XytjA2E8
Page 29

中のすべてのセルが予測状態でないならば、すべてのセルがアクティブになる。
ry :ある入力パターンが期待されるなら、システムは予測状態のセルだけをアクティブ
にすることで期待通りであることを確認する。その入力パターンが期待と違うなら、
システムはカラム中のすべてのセルをアクティブにすることで、
「予期しない入力が発生したのであらゆる解釈が有りうる」ということを表す。

もし以前の状態が何もないなら、従って文脈も予測もないなら、
ry になるときは各カラム内のすべてのセルがアクティブになる。
ry 歌の最初の音を聞いたときと似ている。
文脈がなければ、 ry 予測できない:すべての選択肢が有効である。
以前の状態があるが入力が予期したものと合致しないときは、
アクティブなカラムのすべてのセルがアクティブ ry 。この決定はカラムごとに
行われるので、予測 ry は「オール・オア・ナッシング」32ではない。

図 2-2 カラムの一部のセルをアクティブにすることで、
HTM リージョンは同じ入力の多くの異なる文脈を表現 ry
。カラムは予測状態のセルだけをアクティブにする。
予測状態のセルがないカラムでは、カラム中のすべてのセルをアク ry
。図は、あるカラムでは一つのセルだけがアク ry 、あるカラムではすべてのセルが ry

ry HTM セルは3つの状態を取る。
セルがフィード・フォワード入力によってアク ry 単に「アクティブ」の用語 ry

32 all-or-nothing

>>599-600 >>604-605 >>616-617
0619618垢版2017/01/10(火) 06:41:13.03ID:xuLIsBiQ
Page 30

。セルが ry セルとの横方向の接続によってアクティブ ry 「予測状態」と呼ぶ(図 2-3)。

3) 以前の入力の文脈に基づいて、現在の入力からの予測をするリージョンの ry
予測はステップ 2)で作成した、すべての以前の入力からの文脈を含む表現に基づ ry

リージョンが予測をするときは、将来のフィード・フォワード入力によって
アクティブになると考えられるすべてのセルをアクティブ(予測状態)にする。
リージョンの表現は疎であるので、同時に複数の予測がなされ得る。
例えばカラムのうちの 2%が入力によってアクティブになるとすると、
カラムの 20%が予測状態のセルとなることで10 個の異なる予測がなされ得る。
ry 40% ry 20 個 ry 。各カラムが 4 個のセルからなり、一度に一つだけがアクティブ
になるとすれば、セル全体の 10%が予測状態 ry

今後、疎分散表現の章が追加されれば、異なる予測が混じり合っても、
リージョンは特定の入力が予測されたのかそうでないのかを高い確信 ry

リージョンはどうやって予測 ry ? 入力パターンが時間と共に変化するとき、
カラムとセルの異なる組み合わせが順次アクティブになる。
あるセルがアクティブになると、周囲のセルのうちすぐ直前にアクティブだったセルの
部分集合への接続を形成する。これらの接続は、そのアプリ ry で必要とされる学習速度
に応じて早く形成されたりゆっくり ry 調整できる。
その後、すべてのセルはこれらの接続を見て、
どのセルが同時にアクティブになるかを探さなくてはならない。
もし接続がアクティブになったら、
セルはそれ自身が間もなくアクティブになることを予測することができ、予測状態に入る。
よってある組み合わせのセルがフィード・フォワード入力によってアクティブになると、
ひき続いて起こると考えられる他の組み合わせのセルが予測状態になる。 ry
歌を聞いていて次の音を予測 ry 瞬間と同様 ry

>>541 >>555 >>557-558 >>561-564 >>570 >>578-579
0620619垢版2017/01/10(火) 06:42:55.96ID:xuLIsBiQ
>>619
>>590 >>592 >>596 >>604 >>616-618



> 133 : YAMAGUTIseisei~貸 2016/11/13(日) 11:46:31.17 ID:5tF5+oR3
> > 87 : YAMAGUTIseisei 2016/09/02(金) 20:19:09.47 ID:dnyMZM3F
>> 私の不徳の致す所であれまたしても国に支援をоられる事態に至ってしまった以上
>> 電子頭脳の仕組に付いて発表しても売о奴の誹りは免れ得ましょう
>> 純国産の夢が潰える事になり申訳なく思います
>
> 256 : YAMAGUTIseisei 2016/10/23(日) 23:53:30.82 ID:Dlm82Fb1
> 自分には一言申上げる資格があるでしょう
>
> о隷階級の分際で大変失礼な申上げ様ながら
> この計画案を国が結果的に潰す格好となった事は事実です
>
> 257 : YAMAGUTIseisei 2016/10/24(月) 00:02:20.63 ID:trJeFV+a
> 野暮な付け加えですがご関係各所様又先生方又支援者の皆様に
> 言葉はよろしくありませんが上納金と申しますをお届けできなくなりました事を
> 謹んでお詫申上げます
0623619垢版2017/01/11(水) 20:58:42.31ID:Tu17jTh4
Page 31

図 2-3 ry リージョンのいくつかのセルがフィード・フォワード入力によってアク ry
(薄い灰色で示した)。他のあるセルは、アクティブなセルからの横方向の入力を
受け取って予測状態になる(濃い灰色で示した)。

まとめると、新しい入力が到着すると、アクティブなカラムの疎な部分集合が選択される。
各カラムの一つ又はそれ以上のセルがアクティブになり、これはまた同じリージョン内
のセル間の接続の学習内容に応じて他のセルを予測状態にする。
リージョン内の接続によってアクティブになったセルは、 ry 予測を表す。
次のフィード・フォワード入力が到着すると、
他のアクティブなカラムの疎な組み合わせが選択される。
新たにアクティブになったカラムが予期したものでないとき、
つまりどのセルも ry 予測しなかったとき、カラム中のすべてのセルをアクティブ ry
。新たにアクティブになったカラムが ry 予測状態のセルを持つなら、
それらのセルだけがアクティブになる。リージョンの出力はリージョン内のすべてのセル
のアクティブ状態であり、フィード・フォワード入力によってアクティブになったセルと、
予測状態のためアクティブになったセルとからなる。

既に述べ ry HTM リージョンの予測は将来のいくつかのステップに及ぶことも ry
ry メロディの次の音を予測するだけではなく、例えば次の 4 つの音 ry
。 ry 出力(リージョン内のアクティブ状態のセルと予測状態のセルの和集合)
は入力よりもゆっくりと変化する。
リージョンがメロディの次の 4 つの音を予測 ry 。メロディを文字 A, B, C, D, E, F, G
のシーケンスで表現する。最初の 2 音を聞いた後、リージョン
0624623垢版2017/01/11(水) 21:00:08.87ID:Tu17jTh4
>>623

予測 >>616-619
http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-
algorithm-0.2.1-jp.pdf#31-34#37-42#48-55#62-63#71#73-75#77-80

>>611-615 >>619 >>547
http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-
algorithm-0.2.1-jp.pdf#31-32#34-38#63#75#79#80

>621 >>620
自分がそんなにバカに映っているとすれば尚の事
この度の不採択も併せまして私の不徳の致す所でございます
0626yamaguti~貸垢版2017/01/16(月) 15:57:00.45ID:aN67nnkj
>> http://rio2016.2ch.net/test/read.cgi/future/1484485942/70
> 実行作業(自身のアルゴリズムを改良)

特に難関
* DNC 的巨大外部システム連携
* モジュール設計 ( ライブラリ関数相互乗入 ? ) → 上位版 : 基本的ニューラルネット 差替 更新 創発
* 特徴量抽出機構ベース ( 例 HTM 自動調整 ) : 根本から基本的ニューラルネット 差替 更新 創発

>>567 HTM 19
> 一つの HTM リージョンは学習の能力が限定されている。
> ry どれだけのメモリ ry 入力が ry 複雑 ry に応じて何を学習するかを自動的に調整する。

http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#61#69
> HTM リージョンは入力の変化に応じて各カラムが何を表すのかを
>(主要樹状突起上のシナプスの変更によって)自動的に調整し、
> カラム数の増加ないし減少を自動的に調整するだろう。

> カラム
> 新皮質の一般的な規則は、角度と眼球優位性のようにいくつかの異なる応答特性が
> 互いに重ね合わさっているということである。
> 皮質の表面を水平に移動してゆくに従って、セルから出力される応答特性の組み合わせは変化する。
0628yamaguti~貸垢版2017/01/19(木) 13:34:33.93ID:t0dB5g0K
http://rio2016.2ch.net/test/read.cgi/future/1484485942/484#494#360#387#295-382
http://itpro.nikkeibp.co.jp/atcl/column/17/011000004/011400004/?P=2
> コネクトームの一番単純な線虫だと、305個の神経細胞と6000個のシナプスしかない。
> 線虫のできることと我々ができること ry 。この違いは ry 、コネクトームの規模と複雑さしかない。

身体性 ( 物理文法 )

http://itpro.nikkeibp.co.jp/atcl/column/17/011000004/011400004/?P=4
>>  シンギュラリティ ry 説明したようなアプローチしかないと私は考えている。
> 弱いシンギュラリティ = 簡易版強い AI

プログラムストアード型 MPU : 垂直統合プロセッシング環境
0629623垢版2017/01/19(木) 14:00:47.01ID:t0dB5g0K
Page 32

はシーケンスを理解し、予測 ry C, D, E, F を予測する。
B のセル33は既にアクティブであるから
B, C, D, E, F がそれぞれ 2 つのアクティブな状態のどちらかになる。
ry 次の音 C ry アクティブ状態のセルと予測状態のセルの集合は C, D, E, F, G を表す。
入力パターンは B から C へとまったく違うものに変化したが、20%のセルだけが変化 ry

ry の出力はリージョン内のすべてのセルのアクティブ状態を示すベクトル
で表されるので、この例の出力では入力に比べて 5 倍安定 ry
階層構造を上に登るに従って時間的な安定性が増加 ry
表現に文脈を追加して予測を行う 2 つのステップを「時間プーリング」 ry
シーケンスに対してゆっくりと変化する出力を生成することで、
時間と共に順に現れる異なるパターンを「プールする」34。
ry 別のレベルで詳細化 ry 空間プーリングと時間プーリングで共通の概念から始 ry

共通概念

空間 ry と時間プーリングの学習は似て ry 、セル間の接続関係、あるいはシナプス
の形成を含む。
時間プーリングは同じリージョン内のセル間の接続を学習する。
空間プーリングは入力ビットとカラムとのフィード・フォワード接続を学習する。

二値ウェイト
HTM のシナプスは 0 又は 1 ry 。多くの他のニューラルネットワークモデルでは
0 から 1 の範囲で変化するスカラー値のウェイトを用いるのと異な ry

33 英文では cells と複数形なので、B を表すセルは一つではないことが分かる。
A, B, C,...のそれぞれに対応する疎分散表現は、
リージョン全体の 2%のセルの組み合わせで表される。
34 何かを貯めこんで蓄積するというニュアンスから、時間に関する情報を蓄積 ry
0633620垢版2017/01/21(土) 09:09:22.48ID:WBvVc0tt
http://rio2016.2ch.net/test/read.cgi/future/1484485942/842
>842 : yamaguti~貸 2017/01/21(土) 07:57:29.54 ID:WBvVc0tt
> >>828 >>832
> △ 偶然の一致
> ○ 鏡像 引込原理
>
> >290 : YAMAGUTIseisei 2016/09/20(火) 20:58:53.07 ID:6OGBdxmX
>> 応用 : 精神融合 ( やレディーの前ですが電脳セоクス ) 技術に直結 ( 鏡像 >>111 )
>
>
>>290 : YAMAGUTIseisei 2016/09/20(火) 20:58:53.07 ID:6OGBdxmX
>> 上記 NSPU → 人格融合 射程寸前
>> http://ja.catalyst.red/articles/saito-watanabe-talk-6# >>65
>>
>> その流れ ↓
>>
>> >>284 http://wired.jp/2016/09/20/icf2016_kitano/
>>> 都市における永遠のテーマである「自然との共存」 ry 都市の生物多様性の科学的制御だ。
>>> 「都市の環境においても、生物多様性はロバスト性(頑健性) ry 重要 ry
>>> 生物の分布・構造が、その環境のロバスト性にどのような影響 ry 研究は案外少 ry
>>> 環境中の微生物の分布が、その都市環境や住民にどのような影響
>>
>> 応用 : 精神融合 ( やレディーの前ですが電脳セоクス ) 技術に直結 ( 鏡像 >>111 )
>http://rio2016.2ch.net/test/read.cgi/future/1473812514/291#342#925#989#290-291# kyouzou
>http://rio2016.2ch.net/test/read.cgi/future/1472305818/724#947#957#971#987# kyouzou
>
>
> http://rio2016.2ch.net/test/read.cgi/future/1480859621/469-470# KanniHyougen
> http://rio2016.2ch.net/test/read.cgi/future/1473812514/64# SakusenSidai
0634オーバーテクナナシー垢版2017/01/22(日) 10:27:49.03ID:grP3O/YW
ガリレオX 第141回「シンギュラリティ人工知能が人間と融合する日」
1/22 (今日) 11:30 〜 12:00 (30分) BSフジ
<主な取材先> 井上智洋 さん (駒澤大学) 齊藤元章 さん (PEZY Computing)
0635620垢版2017/01/26(木) 06:23:08.24ID:HCenBjUC
>>572-573
>981 : YAMAGUTIseisei~貸し 2017/01/22(日) 01:25:08.63 ID:E9eRxZmp
> >>980 超光速通信
> 実験室レベルの完全性を伴って ( 理論的完全 ) : 不可能
> エラー有りつつリカバリ有りつつ ( 理論的不完全ながら実用完全通信 ) : 可能 ( 単純例 : ECC 織込 )

上記主旨 : 同期だけが問題 → 同期不要 ( 実用時限定 )
0636オーバーテクナナシー垢版2017/01/26(木) 11:55:13.25ID:PraUXajl
前々から気になっていたんだが
このスレは何なんだ?
0638オーバーテクナナシー垢版2017/01/26(木) 20:18:30.75ID:Yere3qpP
https://goo.gl/RJtxwh
これマジ!?
これから厳しいね。。
0640620垢版2017/01/27(金) 02:20:55.69ID:20hOYv2b
869 : yamaguti~貸 2017/01/21(土) 13:28:04.35 ID:WBvVc0tt
>>832 >>851 http://rio2016.2ch.net/test/read.cgi/future/1484485942/832-851
http://rio2016.2ch.net/test/read.cgi/future/1473812514/46-51# AL Utyuu

↓↑ 同期 >>854 鏡像 引込現象 → AL 融合 有機世界

http://rio2016.2ch.net/test/read.cgi/future/1473812514/291# Kitano
http://rio2016.2ch.net/test/read.cgi/future/1427220599/633# Kyouzou HikikomiGensyou
877 : yamaguti~貸 2017/01/21(土) 15:28:12.55 ID:WBvVc0tt
http://rio2016.2ch.net/test/read.cgi/future/1473812514/53#342# KeizaiGata AL HikikomiGensyou
http://rio2016.2ch.net/test/read.cgi/future/1476925488/756# SaitouSensei BCI Terepasii
0642620垢版2017/01/30(月) 01:59:34.06ID:M39iS8cD
>>http://rio2016.2ch.net/test/read.cgi/future/1485522389/174# SintaiSei
>>552 >>628
> ※b3c 動的レンダリング自己イメージ意識人格基盤 内部外部幻影実在分身 縁リンク
> TRONCHIP 根源要素透過可視大深度再帰自律実身仮身浸透細粒度動的鏡像 JIT/DSL
:
> 拡張自律スプライト 細粒度リンク 思考文法関節
> ( TRON 実身仮身 セガ MODEL1 外部プログラマブル MMU マップト関節 )

> ◎ 自律スプライト ( Sega-MODEL1 型リンク機構 思考文法関節 TRONCHIP )
> = 物理空間融合レンダ = 仮想空間融合レンダ = 意味空間融合レンダ = 人格システム
>>379 >>381 >>483
0643629垢版2017/02/03(金) 08:49:58.56ID:qVY5ajPD
Page 33

永続値
シナプスは学習を通じて継続的に形成されあるいは切断 ry
、各シナプスに(0.0 から 1.0 の)スカラー値を割り当て、接続がどのくらい永続的 ry
。接続が強化されれば、永続値は増加する。他の状況では、永続値は減少する。
ry しきい値(例えば 0.2)を上回れば、シナプスは形成され ry 下回れば、シナプスは無効 ry

樹状突起セグメント
シナプスは樹状突起セグメントに接続される。樹状突起には主要と末梢の 2 種 ry

- 主要樹状突起セグメントはフィード・フォワード入力との間のシナプスを形成する。
ry アクティブなシナプスは線形に加算され、これにより
カラムがフィード・フォワード入力によるアクティブ状態になるか否かが決定される。
- 末梢樹状突起セグメントは同じリージョン内のセル間のシナプスを形成する。
各セルはいくつかの末梢樹状突起セグメントを持つ。
ry アクティブなシナプスの合計がしきい値を超えたら、
接続されたセルは予測状態によりアクティブになる。
一つのセルに複数の末梢樹状突起セグメントがあるので、
セルの予測状態はそれぞれをしきい値で判定した結果の論理和 ry
0644643垢版2017/02/03(金) 08:50:41.34ID:qVY5ajPD
シナプス候補
ry 、樹状突起セグメントはシナプス候補のリストを持つ。
ry 候補は永続値 ry がしきい値を超えたら有効に機能するシナプスとなる。

学習
学習では樹状突起セグメント上のシナプス候補の永続値を増加・減少させる。
ry 用いられる規則は「ヘブの学習規則」35に似ている。
例えば、ある樹状突起セグメントがしきい値以上の入力
を受け取ったためにセルがアクティブに ry シナプスの永続値を修正する。
シナプスがアクティブであり、従ってセルがアクティブになることに貢献した場合、
その永続値を増 ry 。ry がアクティブではなく ry 貢献しなかった場合、その

35 Hebbian learning rules。「細胞 A の軸索が細胞 B を発火させるのに十分近くにあり、
繰り返しあるいは絶え間なくその発火に参加するとき、
いくつかの成長過程あるいは代謝変化が一方あるいは両方の細胞に起こり、
細胞 B を発火させる細胞の 1 つとして細胞 A の効率が増加する。」
0645643垢版2017/02/05(日) 14:16:41.40ID:P54mEcWs
Page 34

永続値を減 ry 永続値を更新する正確な条件は、空間プーリングと時間プ ry とでは異な ry

空間プーリングの概念

空間プーリングの最も基本的な機能はリージョンへの入力を疎なパターンに変換 ry
。シーケンスを学習して予測 ry 疎分散パターンから始めることが必要 ry
。空間プーリング ry いくつかの到達目標がある。

1) すべてのカラムを使用する
HTM リージョンは入力の共通したパターンに対する表現を学習するための
固定数のカラムがある。一つの目的は、全体の ry すべてのカラムが確かに、 ry 学習 ry
。決してアクティブにならないようなカラムは必要でない。そうならないために、
各カラムがその周囲のカラムと相対的にどのくらい頻繁にアクティブになるかを常に監視 ry
頻度が低すぎるときは、そのカラムが勝者となるカラムの集合に含まれ始めるように ry
アクティブになる基準をブースト36する。
ry カラムは周囲のカラムと互いに競合しており、入力パターンに対する表現に
加わろうとしている。あるカラムがほとんどアクティブにならないときは ry 積極的に ry
、他のカラムはその入力を変更させられて少しだけ異なる入力パターンを表現し始める。
0646645垢版2017/02/05(日) 14:17:14.74ID:P54mEcWs
2) 望ましい密度を維持する
リージョンは入力に対する疎な表現を形成する必要がある。
最大の入力を受け取ったカラムは周囲のカラムを抑制する。
抑制範囲を決める半径は、そのカラムの受容野37のサイズに比例する
(従ってまた、小さなサイズからリージョン全体に至る範囲を取る)。
抑制半径の範囲内では、多くのアクティブな入力を受け取ったわずかなパーセンテージ
のカラムだけを「勝者」とする。その他のカラムは無効化される。
(抑制「半径」の語感は二次元状に配置されたカラムを暗示しているが、
この概念は他のトポロジにも適用できる)

36 boost。後押しする、増強するなどの意。後述のアルゴリズムでブースト値という変数 ry
37 receptive field
0647645垢版2017/02/08(水) 02:03:27.72ID:63WsxX0P
Page 35

3) 些細なパターンを避ける
すべてのカラムが些細ではない入力パターンを表すこと ry は、
カラムがアクティブになる ry 最小のしきい値を設定することで達成 ry
。例えば、しきい値を 50 とすると、カラムがアクティブになるには
その樹状突起セグメント上のアクティブなシナプスが 50 個以上必要であり、
ry あるレベル以上に複雑なパターンだけが表現される ry

4) 余分な接続関係を避ける
よく注意しないと、あるカラムが巨大な数の有効なシナプスを保持する ry
。すると、あまり関連性のない多くの異なる入力パターンに強く反応するようになる。
シナプスの異なる部分集合は異なるパターンに反応するだろう。
この問題を避けるため、勝者カラムに現在貢献していないシナプスすべて ry 永続値を減 ry
。貢献していないシナプスに確実に十分なペナルティを与えることで、
一つのカラムが表現する入力パターンが限定 ry
0648645垢版2017/02/08(水) 02:04:30.13ID:63WsxX0P
5) 自己調整的な受容野
実物の脳は高い可塑性38を示す。
新皮質のリージョンは、様々な変化に反応してまったく異なる事柄の表現を学習できる。
もし新皮質の一部が損傷したら、 ry 他の部分によって表現するように調整される。
もし感覚器官が損傷したり変化したりすると、
それに関連付けられていた部分の新皮質は何か他のことを表現するように調整される。
システムは自己調整的である。我々の HTM リージョンにも同様の柔軟性を求めたい。
あるリージョンに 10,000 個のカラムを割り当てたら、
入力を 10,000 個のカラムで最適に表現する方法を学習するべき ry
入力の統計的性質が変化したら、カラムは ry 最適に表現するように変化するべき ry
まとめると、HTM の設計者はリージョンに任意のリソースを割り当てることができて、
そのリージョンは利用可能なカラムと入力の統計的性質に基づいて入力を最適に表現 ry
できるべきである。
一般的な規則は、リージョンのカラムがより多くあれば、
各カラムは入力のより大きくより詳細なパターンを表現 ry
。なお一定の粗さを保つが39、カラムは普通、より稀にアクティブになる。

38 plastic。かそせい。物理的な可塑性とは固体に外力を加えて変形させ、
力を取り去ってももとに戻らない性質のこと。
脳の可塑性とは経験に応じて神経回路の組み換えや再構成を行う能力のこと。柔軟性、適応性。
39 粗さ(sparsity)はアクティブになるカラムの割合。カラムの数が増えても粗さは一定ということ。
0649647垢版2017/02/10(金) 01:34:35.48ID:Zwt3oCZz
Page 36

これら ry を達成するために、新しい学習規則は必要ない。
アクティブでないカラムをブーストし、粗さを一定に保つために周囲のカラムを抑制し、
入力に対するしきい値の最小値を設け、多くのシナプス候補を蓄積・維持し、
その貢献度に応じてシナプスを追加・削除することで、
全体効果としてカラムは望ましい効果を達成するように動的に設定される。

空間プーリングの詳細

ry

1) 固定の数のビットからなる入力から始める。
ry センサからのデータであったり、階層構造の下位の他のリージョンからであったりする。
0650649垢版2017/02/10(金) 01:38:10.26ID:Zwt3oCZz
2) この入力を受取る固定の数のカラムをリージョンに割り当てる。
各カラムはそれに連結された樹状突起セグメントを持つ。
各樹状突起セグメントは入力ビットの部分集合を表すシナプス候補の集合を持つ。
各シナプス候補は永続値を持つ。その永続値に基づいて、 ry 候補が有効になる。

3) 与えられた任意の入力について、
アクティブな入力ビットと接続している有効なシナプスの数を各カラムごとに求める。

4) アクティブなシナプスの数にブースト値40を乗じる。ブースト値は、そのカラムが
周囲のものに比べてどのくらい頻繁にアクティブになったかに基づいて動的に決 ry

5) ブースト後に最大のアクティベーションを得たカラムは、
抑制半径内の固定のパーセンテージのカラム以外のものを無効化する。
抑制半径はそれ自体、入力ビットの広がり具合(又はファン・アウト)から動的に決 ry
。これでアクティブなカラムの疎な集合が得られた。

6) アクティブなカラムのそれぞれについて、すべてのシナプス候補の永続値を調節する。
アクティブな入力に割り当てられたシナプスの永続値は増加させる。
非アクティブな入力に割 ry は減少させる。
ry 変更により、 ry シナプスが有効になったり無効 ry 。

時間プーリングの概念


40 boosting factor
0651649垢版2017/02/11(土) 12:01:58.10ID:Xj0b950+
Page 37

時間プーリングがシーケンスを学習し、予測をすることを思い出して欲しい。
基本的な方法は、あるセルがアクティブになったら直前にアクティブであった他のセルとの
接続を形成することである。これによりセルは、そのセルの接続を調べることで
いつそれがアクティブになるかを予測 ry 。すべてのセルがこれを行えば、
全体としてそれらはシーケンスを記憶してそれを思い出し ry 予測できる。
ry シーケンスを記憶するための集中記憶装置はなく、 ry 記憶は各セルに分散配置される。
記憶が分散 ry 、システムはノイズや誤りに強くなる。 ry
、疎分散表現の重要な特徴を 2, 3 述べておく ry

ry あるリージョンが全部で 10,000 個あるセルのうち、常に 200 個のセルがアクティブ
になることで表現を形成しているとしよう( ry 2%のセルがアクティブ)。
200 個のアクティブなセルで表される特定のパターンを記憶・理解するには ry
単純な方法は、関心がある 200 個のアクティブなセルのリストを作成 ry
。ちょうど同じ 200 個のセルが再びアクティブになったことが分かれば、
そのパターンを理解したことになる。
しかしながら、 ry 20 個だけのリストを作成して、残りの 180 個を無視したとしたら ry ?
ry 200個のセルの異なるパターンにおいてそれら 20 個の部分がちょうどアクティブに
なるようなパターンが数多く存在して、間違いだらけに ry はならない。
パターンは大きくかつ疎であるため(ry 10,000 個のうち 200 個のセルがアクティブ)、
20 個のアクティブなセルを記憶することで ry うまく記憶できる。
実際のシステムで間違いが起こる可能性は極めて稀 ry メモリ量を非常に節約 ry
0652651垢版2017/02/11(土) 12:03:13.50ID:Xj0b950+
HTM リージョンのセルはこの特徴を利用している。各セルの樹状突起セグメントは
同じセル内の他のセルへの接続関係の集合を持つ。樹状突起セグメントは
ある時点でのネットワークの状態を理解する ry ため、これらの接続を形成している。
周囲のアクティブなセルは数百から数千あるかも知れないが、
ry が接続しなければならないのはこのうちの 15 から 20 程度に過ぎない。
ry 15 個のセルがアクティブと分かれば、その大きなパターンが発生 ry ほぼ確信できる。
このテクニックを「サブサンプリング」と呼び、HTM アルゴリズム全体を通じて利用している。

各セルは多くの異なる分散パターンに関与し、また多くの異なるシーケンスに関与 ry
。ある特定のセルは数十から数百の時間的遷移に関与しているかも ry
。従って各セルは一つではなく、いくつかの樹状突起セグメントを持つ。
ry セルが理解したいアクティビティの各パターンごとに一つの樹状突起セグメントを持つこ
0653661垢版2017/02/12(日) 14:29:02.49ID:BZYpOz1d
Page 38

とが望ましい。しかし ry 樹状突起セグメントはいくつかの完全に異なるパターンに関して
接続を学習することができ、それでもうまく行く。
例えば、一つのセグメントが 4 つの異なるパターンのそれぞれについて 20 ry 都合 80 個
の接続を持つとする。そして、これらの接続のうち任意の 15 個がアクティブ
なときに樹状突起セグメントがアクティブとなるようにしきい値を設定する。
これにより誤りが発生する可能性が生じる。
異なるパターンが混在することで、 ry 15 個のしきい値に到達する可能性がある。
しかしながら、表現の疎な性質により、このような誤りは非常に起こりにくい。

では、10 個から 20 個の樹状突起セグメントを持つセルと数千個のシナプスが
どのようにして数百種類のセルのアクティブ状態を理解するのかを見ていこう。

時間プーリングの詳細

ry 行われるステップを数え上げていく。
空間プーリングを終えてフィード・フォワード入力を表現するアクティブなカラムの集合
が得られたところから始める。
0654652垢版2017/02/12(日) 14:30:37.18ID:BZYpOz1d
1) それぞれのアクティブなカラム ry の中のセルで予測状態のものを調べ、
アクティブにする。すべてのセルが予測状態でないなら、カラム中のすべての
セルをアクティブにする。結果として得られたアクティブなセルの集合は、
以前の入力の文脈の下での入力表現である。

2) リージョンのすべてのセルの各樹状突起セグメントについて、アクティブなセルに
接続されている接続状態のシナプスの数 ry 数がしきい値を超えていれば、
その樹状突起セグメントをアクティブとして印を付ける。
アクティブな樹状突起セグメントを持つセルを、
それがフィード・フォワード入力によって既にアクティブでない限り、予測状態にする。
アクティブな樹状突起を持たず、
フィード・フォワード入力によりアクティブになっていないセルは、非アクティブにする。
以上により、予測状態のセル全体がそのリージョンの予測となる。

3) 樹状突起セグメントがアクティブになったとき、そのセグメント上の
すべてのシナプスの永続値を更新する。
その ry セグメントのすべてのシナプス候補について、
アクティブなセルに接続しているシナプスの永続値を
増加させ、非アクティブなセルに接続しているシナプスの永続値を減少させる。
シナプスの永続値に対するこれらの変更に一時的と印を付ける。
これはセグメントをアクティブにし、従ってまた予測をするほど
既に十分に訓練されたシナプスを更新する。
しかしながら、可能であればさらに時間をさかのぼって
0656653垢版2017/02/15(水) 22:26:32.55ID:4UMkv2wE
Page 39

予測ができるように常に拡張したい。
このため、同じセルの二番目の樹状突起セグメントを取り上げ、訓練する。
二番目のセグメントとして、
以前の時刻ステップのシナプスの状態に最もマッチするものを一つ選択する。
このセグメントに対して、以前の時刻ステップのシステムの状態を用いて、
アクティブなセルに接続しているシナプスの永続値を増加させ、
非アクティブなセルに接続しているシナプスの永続値を減少させる。
シナプスの永続値に対するこれらの変更に一時的と印を付ける。

4) あるセルがフィード・フォワード入力によって予測状態からアクティブ状態41に
変化したときはいつも、そのセルに関連付けられているすべてのシナプス候補の
「一時的」の印を削除する。従ってフィード・フォワードによってセルがアクティブ化
したことを正しく予測したときだけ、シナプスの永続値を更新する。

5) セルがアクティブ状態から非アクティブ状態に変化したとき、
このセルのすべてのシナプス候補について一時的な永続値の変更を元に戻す。
フィード・フォワードによってセルがアクティブ化したこと
を間違って予測したときはシナプスの永続値を強化したくないため。

フィード・フォワードによってアクティブになったセルだけを処理するのは
リージョンの内部だけであって、それ以外では予測はさらなる予測を引き起こす ry
。しかし(フィード・フォワードと予測の)すべてのアクティブなセルは
リージョンの出力となり、階層構造の次のリージョンへと引き継がれる。
0657656垢版2017/02/15(水) 22:27:09.36ID:4UMkv2wE
一次と可変長42のシーケンスと予測

ry

一つのカラムに対するセルの数を増 ry 減 ry の効果 ry ?
特に、1カラムに1つのセルしかないとき ry ?

以前用いた例では、カラム当たり4セルのアクティブなカラムが 100 個の場合、
入力の表現は 4100 通りの異なるコード化が可能 ry
。従って、同じ入力が様々な文脈の中で出現しても混乱しない ry
。例えば、もし入力パターンが単語を表すなら、リージョンは
同じ単語が何度も使われる多くの文章を混乱することなく

41 原文は“inactive to active”となっているが、web 上の forum で
“predictive state to active state”の間違いだったとの訂正があった。
(2010/12/14 Sabutai: title “Cortical Algorithms document: praise and suggestions”)
42 “first order” と “variable order”。前者は一つだけの長さのシーケンスと予測、
後者は任意の長さのシーケンスと予測。
0660656垢版2017/02/17(金) 13:48:09.67ID:pF3vP0RD
Page 40

記憶できる。「犬」のような単語が異なる文脈の中でユニークな表現を持つ ry
。この能力により HTM リージョンは可変長の予測 ry

可変長予測は現在起きていることだけではなく、可変の長さの過去の文脈に基づいて予測する。
HTM リージョンは可変長の記憶である。

カラム当たり 5 セルに増やすと、 ry
可能なコード化の数は 5100 に増加し、4100 よりずっと大きくなる。
しかし、 ry 多くの現実的な問題においてこの容量の増加はあまり役に立たない ry

しかしながら、 ry 少なくすると、大きな違いが生まれる。

もしカラム当たり1セルまでになると、文脈の中で表現する能力を失 ry
リージョンへの入力は、以前の活動に関係なく常に同じ予測を引き起 ry
。カラム当たり1セルの場合、HTM リージョンの記憶は一次記憶となり、
予測は現在の入力だけに基づ ry

一次予測は脳が解くことのできるある種の問題 ―静的空間推論― に理想的である。
ry 目が後を追うには短かすぎる時間であっても ry
聞く ry 理解するには常にパターンのシーケンスを聞く必要がある。
視覚も普通はそれに似ていて、視覚的イメージの流れを処理する必要がある。
しかしある条件下では、一瞬 ry
0661660垢版2017/02/17(金) 13:49:24.30ID:pF3vP0RD
時間的理解と静的理解とでは、異なる推論メカニズム ry
一方は可変長の文脈に基づいてパターンのシーケンスを理解し、予測をする必要がある。
他方は時間的文脈を使わずに静的な空間的パターンを理解する必要がある。
カラム当たり複数のセルを持つ HTM リージョンは時間に基づくシーケンスを理解
するのに理想的であり、カラム当たり1セルの HTM リージョンは空間的パターンを理解
するのに理想的である。
Numenta では、カラム当たり1セルのリージョンを視覚問題に適用した実験を数多く実施 ry
重要な概念だけ述べる。

HTM リージョンにイメージを入力すると、リージョン内のカラムは画素の共通の空間的配列
の表現を学習する。学習するパターンの種類は新皮質の V1 野
(生物学で広く研究されている新皮質のリージョン)で観察されるものと似ていて、
概ね、異なる角度の線と角である。動画像 ry 、これらの基本的な形の遷移を学習する。
例えばある箇所に垂直な線があって、左又は右に移動した垂直な線がそれに続く ry
よく観察されるパターンの遷移は HTM リージョンで記憶される。
0662620垢版2017/02/17(金) 14:23:01.30ID:pF3vP0RD
>> http://rio2016.2ch.net/test/read.cgi/future/1487129635/363-364
>  ・唯一無二派
>  ・客観派
自動憑依 余地

>    ・脳拡張派
連続度 ⇔ 工事による影響
http://wc2014.2ch.net/test/read.cgi/future/1444213055/444# haamonii

>  ・電脳派
粒度 ( 分解能 ) : 正確性


http://rio2016.2ch.net/test/read.cgi/future/1473812514/411# SaitouSensei BCI Habu
> 16 : yamaguti~kasi 2017/01/04(水) 13:35:45.21 ID:stEDHEtr
> http://rio2016.2ch.net/test/read.cgi/future/1482030012/794# TinouZoufuku-BCI
http://rio2016.2ch.net/test/read.cgi/future/1479349196/772# JinkakuYuugou
>http://rio2016.2ch.net/test/read.cgi/future/1473812514/441# BCI

ttp://rio2016.2ch.net/test/read.cgi/future/1427220599/569
p://rio2016.2ch.net/test/read.cgi/future/1486571513/377
0663異次元騎士カズマ垢版2017/02/17(金) 19:09:14.93ID:XMFDn/Yv
俺は敵の海賊島に潜入し,船長の部屋に乗り込んだ。誰もいない。
くそっ,ヤツはどこだっ!
とそこで,ベッドの上に鎖で縛り付けられている黒人娘を見つけた。
彼女は叫んだ「カズマ! 来てくれたの?」
俺にはこんな丸顔の黒人女は知り合いにいないのだが……ってマノン?

そんな馬鹿な,彼女は卵形の顔をしていたし,薔薇色の肌だった。
そして二重で勝気なグリーンの瞳を持っているんだ。
しかしそれは間違いなくマノンだった。
顔と肌はボコボコに殴られ腫れて黒ずんでいて,片目はつぶれている。
左脚は膝から逆方向にまがっており,歯も1本も残っていない。

「ごめんね,カズマ。分からない? そうよね,私ここに連れて来られてから
一度もお風呂に入っていないし,汚くて分からないわよね。

あれからね,私ずっと何度も海賊たちに抱かれたわ。
でもね,私その相手をカズマだと思うようにしたの,だってカズマなら
殴られても何をされても嫌じゃない。耐えられるから。許してくれる?

私,鏡すら見てないのよ。
前に思い切り抵抗したとき殴られて以来,目も良く見えなくて……。
ねぇ,私醜くなった?」

俺は彼女を抱きしめ,唇を吸った

「いや,マノンは綺麗なままだよ」
0664異次元騎士カズマ垢版2017/02/18(土) 08:55:51.61ID:Uf5aHGu8
工知能で自我・魂が作れるか [無断転載禁止]©2ch.net
202 : 異次元騎士カズマ2017/02/17(金) 19:10:13.24 ID:XMFDn/Yv
俺は敵の海賊島に潜入し,船長の部屋に乗り込んだ。誰もいない。
くそっ,ヤツはどこだっ!
とそこで,ベッドの上に鎖で縛り付けられている黒人娘を見つけた。
彼女は叫んだ「カズマ! 来てくれたの?」
俺にはこんな丸顔の黒人女は知り合いにいないのだが……ってマノン?

そんな馬鹿な,彼女は卵形の顔をしていたし,薔薇色の肌だった。
そして二重で勝気なグリーンの瞳を持っているんだ。
しかしそれは間違いなくマノンだった。
顔と肌はボコボコに殴られ腫れて黒ずんでいて,片目はつぶれている。
左脚は膝から逆方向にまがっており,歯も1本も残っていない。

「ごめんね,カズマ。分からない? そうよね,私ここに連れて来られてから
一度もお風呂に入っていないし,汚くて分からないわよね。

あれからね,私ずっと何度も海賊たちに抱かれたわ。
でもね,私その相手をカズマだと思うようにしたの,だってカズマなら
殴られても何をされても嫌じゃない。耐えられるから。許してくれる?

私,鏡すら見てないのよ。
前に思い切り抵抗したとき殴られて以来,目も良く見えなくて……。
ねぇ,私醜くなった?」

俺は彼女を抱きしめ,唇を吸った

「いや,マノンは綺麗なままだよ」
0665660垢版2017/02/19(日) 00:40:30.29ID:Iy/nas+o
Page 41

もしリージョンへの入力画像が、垂直な線が右に移動するものだったら ry ?
カラム当たり1セルしかなかったら、線が次に左又は右に現れること43を予測できる ry
。線が過去にどこにあったか知っているという文脈を使うことができないため ry
移動していることを知ることはできない。
このようなカラム当たり1セルのものは、新皮質の「複雑型細胞」44のように振舞う ry
。そのようなセルの予測出力は、 ry 動いていようがいまいが
異なる位置にある視覚的な線に対してアクティブになるだろう。
このようなリージョンは異なるイメージを区別する能力を保持する一方で、
平行移動や大きさの変化に対して安定 ry
。このような振る舞いは、空間的不変性(同じパターンの異なる見方 ry ) ry

もし同じ実験をカラム当たり複数のセルを持つ HTM リージョンに対して行えば、
そのセルが新皮質の「方位選択性複雑型細胞」45のように振舞う ry
。セルの予測出力は左に移動する線や右 ry 線に対してアク ry になるが、両方に対しては ry
0666665垢版2017/02/19(日) 00:41:39.93ID:Iy/nas+o
これらをまとめ ry 仮説 ry
新皮質は一次と可変長の両方の推論及び予測 ry
。新皮質の各リージョンには 4 又は 5 層のセルがある。
ry それらはすべてカラム単位で応答する性質 ry 水平方向に大きな接続性 ry
。新皮質のセルの層は ry HTM の推論と学習に似たことを実行しているのではないか ry
。異なる層のセルは異なる役割 ry 。例えば解剖学によれば
第 6 層は階層構造のフィードバックを形成し、第 5 層は運動の動作に関わっている。
。異なる層のセルは異なる役割 ry
解剖学 ry 6 層は階層構造のフィードバックを形成し、第 5 層は運動の動作 ry
。セルの 2 つの主要なフィード・フォワード層は第 4 層と第 3 層である。
ry 4 層のセルが独立に、即ちカラムの中で1セルだけが動作するのに対して、
第 3 層のセルはカラムの中で複数のセルが動作 ry
。よってセンサ入力に近い新皮質のリージョンは一次記憶と可変長記憶の両方を持つ。
一次シーケンス記憶(だいたい第4層のニューロンに対応する)は空間的に不変の表現 ry
。可変長シーケンス記憶(だいだい第 3 ry )は動画像の推論と予測に役立つ。

まとめ ry 章で述べたようなアルゴリズムは新皮質のニューロンのすべての層 ry 仮説 ry
。新皮質の層の詳細は大きく違っていて、
フィード・フォワードとフィードバック、注意46、運動動作47に関する異なる役割を演じ

43 「移動する」ことは予測できないが、隣の位置に「出現する」ことは予測 ry
44 complex cell
45 directionally-tuned complex cell
46 attention
47 motor behavior
0667665垢版2017/02/20(月) 00:16:09.76ID:PjnuggmX
Page 42

ている。センサ入力に近いリージョンでは、
一次記憶を実行するニューロンの層が空間的不変性に有利であるため役に立つ。

ry 一次(カラム当たり1セル)の HTM リージョンを画像認識問題に適用する実験 ry
可変長(カラム当たり複数セル)の ry に可変長のシーケンスを理解・予測させる実験 ry
。将来 ry 一つのリージョンに混在させ、他の目的にもアルゴリズムを拡張 ry
しかしながら、一つの層と等価なカラム当たり複数セルの構造が、
単体であれ複数階層であれ、多くの興味深い問題を取り扱いうる ry
0669667垢版2017/02/26(日) 02:06:24.81ID:vIzrnxYS
Page 43

第3章: 空間プーリングの実装と疑似コード

ry プーリング関数48の最初の実装の疑似コード ry
。このコードの入力は、センサー・データ又は前のレベルからのバイナリ配列である。
このコードは activeColumns(t) を計算する。activeColumns(t) は
時刻 t において、フィード・フォワード入力に対して選択されたカラムのリスト ry
時間プーリング関数の入力 ry activeColumns(t) は空間プーリング関数の出力 ry
0670669垢版2017/02/26(日) 02:07:54.96ID:vIzrnxYS
疑似コードは3つのフェーズ ry 順に実行 ry

ry 1: 各カラムについて、現在の入力のオーバラップを計算する。
ry 2: 抑制の後に勝者となったカラムを計算する。
ry 3: シナプスの永続値と内部変数を更新する。

空間プーリングの学習はオンライン49で行われるが、
フェーズ 3 を単にスキップすることで学習をしないようにすることもできる。

以下、3つのフェーズのそれぞれについて疑似コードを示す。
ry データ構造や補助関数は本章の最後に示す。

初期化
最初の入力を受け取る前に、各カラムの最初のシナプス候補のリストを計算して
リージョンを初期化する。
これは入力配列の中からランダムに選択された入力位置のリストで構成される。
各入力はシナプスで表現され、ランダムな永続値が割り当てられる。
ry 永続値は二つの条件を満たす ry
。第一に、その値は connectedPerm
(シナプスが「接続している」と判定される最小の永続値)の前後の狭い範囲 ry
。これにより、訓練を少ない回数繰り返しただけで、 ry 接続(ないし切断) ry
。第二に、各カラムは入力リージョン上で自然な中心位置があり、
永続値 ry バイアス ry 。(中心付近ではより高い値 ry )

48 spatial pooler function
49 online。推論の計算と学習の計算を分離せずに、同時 ry
0671669垢版2017/02/26(日) 17:47:14.84ID:vIzrnxYS
Page 44

フェーズ 1: オーバラップ
ry 与えられた入力ベクトルについて、そのベクトルと各カラムのオーバラップを計算する。
ry オーバラップは、アクティブな入力と接続されたシナプスの数 ry にブースト値を掛け ry
。もしこの値がminOverlap を下回 ry 0 ry

1. for c in columns
2.
3.   overlap(c) = 0
4.   for s in connectedSynapses(c)
5.     overlap(c) = overlap(c) + input(t, s.sourceInput)
6.
7.   if overlap(c) < minOverlap then
8.     overlap(c) = 0
9.   else
10.     overlap(c) = overlap(c) * boost(c)
0672671垢版2017/02/26(日) 17:49:20.84ID:vIzrnxYS
フェーズ 2: 抑制
ry 抑制の後に勝者となったカラムを計算する。
desiredLocalActivity は勝者となるカラムの数を制御するパラメータである。
例えば、 desiredLocalActivity を 10 ry
抑制半径 ry においてカラムのオーバラップ値が高い順に 10 位以内のカラムが勝者 ry

11. for c in columns
12.
13.   minLocalActivity = kthScore(neighbors(c), desiredLocalActivity)
14.
15.   if overlap(c) > 0 and overlap(c) minLocalActivity then
16.     activeColumns(t).append(c)
17.

フェーズ 3: 学習
ry 学習を実行 ry シナプスの永続値は必要に応じて更新され、
ブースト値と抑制半径を更新する。
0673671垢版2017/02/27(月) 23:47:53.65ID:2got1qbV
Page 45

主要な学習規則は 20-26 行 ry 。勝者となったカラムのそれぞれについて、
もしあるシナプスがアクティブであればその永続値をインクリンメントし、
その他の場合はデクリメントする。永続値は 0 から 1 の範囲 ry

28-36 行目ではブーストを実装している。
カラムが接続を学習するための二つの独立したブースト機構がある。
あるカラムがあまり勝者となっていない(activeDutyCycleで観測される)とき、
そのブースト値をインクリメントする(30-32 行目)。
一方、あるカラムのシナプスがどの入力ともあまりオーバラップしない50
(overlapDutyCycle で観測される)とき、その永続値がブーストされる(34-36 行目)。
ノート:学習モードがオフになると、ブースト値は固定される。

フェーズ 3 の最後に、抑制半径を再計算する(38 行目)。
0674673垢版2017/02/27(月) 23:48:48.59ID:2got1qbV
18. for c in activeColumns(t)
19.
20.   for s in potentialSynapses(c)
21.     if active(s) then
22.       s.permanence += permanenceInc
23.       s.permanence = min(1.0, s.permanence)
24.     else
25.       s.permanence -= permanenceDec
26.       s.permanence = max(0.0, s.permanence)
27.
28. for c in columns:
29.
30.   minDutyCycle(c) = 0.01 * maxDutyCycle(neighbors(c))
31.   activeDutyCycle(c) = updateActiveDutyCycle(c)
32.   boost(c) = boostFunction(activeDutyCycle(c), minDutyCycle(c))
33.
34.   overlapDutyCycle(c) = updateOverlapDutyCycle(c)
35.   if overlapDutyCycle(c) < minDutyCycle(c) then
36.     increasePermanences(c, 0.1*connectedPerm)
37.
38. inhibitionRadius = averageReceptiveFieldSize()
39.

50 オーバラップ値が小さい
0675673垢版2017/03/01(水) 06:47:38.78ID:3+1CchsD
Page 46

データ構造と補助関数

以下の変数とデータ構造が疑似コードで ry

columns
すべてのカラムのリスト
input(t,j)
時刻t におけるこのレベルへの入力。j 番目の入力がオンのとき、input(t, j) は1である。
overlap(c)
ある入力パターンに対する、カラムc の空間プーリング・オーバラップ
activeColumns(t)
フィード・フォワード入力により勝者となったカラムの添え字のリスト
desiredLocalActivity
抑制ステップの後に勝者となるカラムの数を制御するパラメータ
inhibitionRadius
カラムに接続された受容野51のサイズの平均値
neighbors(c)
カラムc から inhibitionRadius の範囲内にあるすべてのカラムのリスト
minOverlap
抑制ステップで処理対象となるべきカラムのアクティブな入力の最小の数52
boost(c)
学習のときに計算される、カラムc のブースト値。
ry アクティブでないカラムのオーバラップ値を増加させる ry
0676675垢版2017/03/01(水) 06:48:28.73ID:3+1CchsD
synapse
シナプスを表すデータ構造。永続値と接続元の入力の添え字からなる。
connectedPerm
もしあるシナプスの永続値がこの値よりも大きければ、接続していると判定される
potentialSynapses(c)
シナプス候補とその永続値のリスト
connectedSynapses(c)
potentialSynapses(c) の部分集合で、永続値がconnectedPerm以上のものからなる。
これらは現在カラムc に接続されているフィード・フォワード入力である。
permanenceInc
学習時にシナプスの永続値を増加させる増分値
permanenceDec
減少値

51 巻末の用語の説明参照
52 あるカラムへのアクティブな入力がこの数以上であれば、抑制ステップで処理対象となる。
0685620垢版2017/03/28(火) 00:01:48.41ID:yp3ixXqM
>>567
> 一つの HTM リージョンは学習の能力が限定 ry どれだけのメモリ ry 入力が ry 複雑 ry に応じて ry メモリが削減 ry より単純 ry
0686620垢版2017/03/29(水) 01:15:27.80ID:oL56SRZT
強い AI ( AL ) 簡易版実装用資料 ( ほぼ網羅 ) >>680 ( >>552 >>529 引込現象 )

>205 >135 : YAMAGUTIseisei 20161009 >繰返しになるが既にできている ( 自分だけの問題でないので全てを詳らかにできないが自分の師匠がとうの昔に簡易
0687620垢版2017/04/09(日) 08:19:51.34ID:XXlcdpGX
>>630 #60#62-64
>パルス ry 頻度が重要 ry よってセルの出力はスカラー値と見 ry 学習はシナプスのウェイトを調整 ry 非線形 ry このタイプの人工ニューロン ry 有益 ry しかし ry 複雑さを捉えておらず ry もっと精巧 ry 必要
>68 spike ry 尖った波形

>樹状突起セグメントは、以前 ry 同時にアクティブ ry セルへの接続 ry で ry 記憶する。そのセグメントは、以前にフィード・フォワード入力によってアクティブ ry を記憶

> HTM ry シナプスは二値の重み ry スカラー値にすることを妨げるものは何も

>Dendrites この本は樹状突起に関するあらゆる ry 16 章では HTM ry 樹状突起セグメントの非線形な性質
0689620垢版2017/05/04(木) 12:15:43.63ID:RvZVSAKV
>>688 >>680-686 >>417 >>633 TaihuLight SW26010 ( Jian Zhang 先生 ) 電子頭脳的設計
http://m.pc.watch.impress.co.jp/docs/column/kaigai/1056229.html
現行アプリ的直線性能の度外視傾向 ( 戦艦度外視 航空機設計 ) ? TRONCHIP 系美麗設計 太極美 陰陽美
http://rio2016.2ch.net/test/read.cgi/future/1489922543/44-50# TRONCHIP 32bitARM
http://rio2016.2ch.net/test/read.cgi/future/1472305818/606#728-730#754-759#576-529# Cell SW26010
http://rio2016.2ch.net/test/read.cgi/future/1478753976/596# Rousi NanbuSensei ONOyouko
老子 : 萬物抱陰而負陽 冲氣以為和 陰陽二氣交互作用而生成和諧 ( 南部陽一郎先生:自発的対称性の破れ オノ・ヨーコ氏:傾き )
0695620垢版2017/07/02(日) 21:34:44.89ID:ZKt2tQ+I
>>688 解釈循環収束
>>483 >TRONCHIP 根源要素透過可視大深度再帰自律実身仮身浸透細粒度動的鏡像 JIT/DSL
>>484 >幻影実在大深度再帰自律オブジェクト 素因数分解 素韻枢分解 素因枢分解
0697620垢版2017/08/20(日) 23:26:30.43ID:S+NGnK8E?2BP(0)

量子アニー ry ( ( 超細密 ) アナログアレイ ( D- ry : AAP 系ビット修飾 ) )
レスを投稿する


ニューススポーツなんでも実況