推論 HTM が周囲の世界のパターンを学習すると、新しい入力について推論ができ ry 、以前に学習した空間的ないし時間的パターンと照合 ry 入力が以前に格納したシーケンスとうまく適合 ry が、推論とパターンマッチングの本質 ry
メロディをどうやって理解 ry 最初の音 ry 次の音 ry 十分では ry 普通は3,4,ないしそれ以上の音 ry 。HTM リージョンの推論も似 ry 継続的に入力列を見て、以前学習したシーケンスと照合 ry シーケンスの最初から ry が普通はもっと流動的で、 ry メロディがどこから始まっても貴方が理解できることと似 ry HTM リージョンは分散表現を用いるので ry シーケンスを記憶ないし推論することは上記のメロディの例よりも複雑 ry
貴方がセンサから新しい入力 ry すぐに明確になるとまでは言えないものの、 慣れ親しんだパターンを ry 容易に見つける ry 、例え老人であっても若い人 ry 、ほとんどの人が話す「朝食」という言葉を理解できる。 同じ人が同じ「朝食」という単語を百回発音しても、その音は二度と、 貴方の蝸牛殻17(音の受容体)を正確に同じように刺激することはないにも関わら ry 05715702016/11/27(日) 07:36:49.57ID:vHhUl6EA HTM リージョンも脳と同じ問題に直面する:入力は決して正確に繰り返されない。 さらに、ちょうど脳と同じように、 ry 推論や訓練の最中にも新しい入力 ry 対処する一つの方法は、疎分散表現 ry 。疎分散表現の鍵となる特徴は、パターンの一部
> ry 大きく分けて領野間 ry マクロ・コネクトームと、 ry ニューロン間のシナプス結合を表すミク ry
> 新皮質は6層 ry 、階層内(横方向)はミクロ・コネクトームによる密結合であり、主に時間系列 ry > 。階層間(縦方向)はマクロ・ ry 疎結合であり、主に静的パターンを処理する。 > 最下層では知覚の入力および筋肉への出力が行われ、最上層は意識あるいは論理的思考を司る。 > 階層を上昇する情報はフィードフォワード(FF)あるいはボトムア ry 下降 ry バック(FB)あるいはトップダ ry > 。これらの情報の流れはベイジアンネットワークの性質 ry
> ry 。深層学習におけるバック・プロパゲーションはFBとは別物である。実際の脳ではFB情報が重要 ry > 。FF情報とFB情報は必ずしも対称的ではない。FB情報の方がむしろ多 ry > 。さらに重要なのは階層内からの情報である。下の階層からくる情報は全体の5-10%にすぎない。 > ry HTM理論では階層内の横からの情報は遷移確率のような時間的情報である。 > ry 、ゼータ1ではFBを扱うがCLAでは扱えず、これはCLAの欠点である。
> 新皮質の6層構造間と領野間の情報の流れについても解明が進んでいる。 > 新皮質への情報はまず4層に入り、そこから2/3層に送られる。 > さらに上の階層へは直接の経路と視床を経由する2種類がある。 > 5層は運動を支配している。 > 6層からはFBで1層に入る。 > CLAアルゴリズムでは4層と2/3層は実装されているが、5層と6層は実装されていない。 05765752016/12/02(金) 18:45:32.64ID:HgThED5J > HTM理論の解説 > > ry 発展に伴い実装 ry 。Numentaの資料により初代のゼータ1 から CLA, Gen3, そして将来の Gen4 ry > 。以下では ゼータ1, CLA, Gen3 ry > ゼータ1 ry 、教師なし学習、木構造の階層構造、上の階層ほど空間的・時間的に不変性 ry > 、バッチ学習、学習と推論フェーズの分離 ry > 。学習は階層ごとに行われ、階層を上がるに従い空間プーリングと時間プーリングによ ry 不変性 ry > 。下層から上層へのFFだけでなく、上層から下層へのFBも実装されている。 > Vicarious ではゼータ1を発展させた Recursive Cortical Network 理論が実装 ry CAPTCHA を破る ry > > CLAは神経科学の知見を取り込み、 > 神経細胞の細胞体、基底樹状突起、遠隔樹状突起、尖端樹状突起、軸索などとモデルを対応付けている。 > 新皮質の6層構造において情報は三方向 ry 下の階層、上の階層、同じ階層の横方向から入ってくるが、 > 下からの入力は5%ほどで、残りの95%は上と横 ry 。CLAにおいては遠隔樹状突起を経由しての横方向 > からの入力を扱うことが、通常のニューラルネットワークの理論と異なっている。 > > CLAの主な特徴は、空間プーリング、時間プーリング、SDR (Sparse Distributed Representation, スパース表現) > によるデータ表現である。空間プーリングとは、ry 。時間プーリングとは、 ry 。 > SDR は、一つのパターンを多数のニューロン(コラム)のうちの複数のニューロン(コラム)で表現することで、 > 豊富な表現力と頑強性を実現している。実際の脳ではSDRが採用されている。 > ry 反対に一つのパターンを一つのニューロンで表現する方法は Point Neuron あるいは Localist 表現と呼ぶ。 > SDRの幾何学的表現は、基底樹状突起をHTM空間における短いベクトルとし、 > 下の階層の長いベクトルを多数の短いベクトルの和として表現していると考えられる。 > これをSDRのハリネズミモデル ry モデルの具体例として脳の集団符号化方式がある。 > Gen3 は CLA の後継として Numenta が2014年 ry 05775752016/12/03(土) 12:21:12.63ID:97cte86A>>575-576 http://webcache.googleusercontent.com/search?q=cache:wba-initiative.org/wp-content/uploads/2015/05/20160518-wba14-matuda.pdf05785702016/12/04(日) 17:39:24.40ID:VL9xSNhJ Page 21
分だけをマッチングするだけでほぼ確実にマッチ ry
予測 HTM の各リージョンはパターンのシーケンスを格納する。 ry 現在の入力とマッチングすることで、次に到着すると思われる入力の予測をする。 ry 実際には疎分散表現の間の変遷を記録する。 あるときはその変遷はメロディの中の音に見られるように線形のシーケンスであるが、 一般的な場合は将来入力される可能性があるものが同時に多数予測される。 HTM リージョンはときには長期間に及ぶ過去の文脈に基づいて異なる予測をする。ry 。
HTM の予測の鍵 ry
1) 予測は継続的 ry 貴方は特に意識していなくても継続的に予測 ry HTM も同じ ry 歌 ry 次の音 ry 。階段 ry 足がいつ次の段に触れるか ry 予測と推論はほとんど同じ ry 。予測は分離された処理ではなく ry 統合 ry
2) 予測は階層構造のすべてのレベルのすべてのリージョンで起こる ry 。リージョンはそれが既に学習したパターンについて予測 ry 。言語の例では、低レベルのリージョンでは次の音素を予測し、高レベル ry 単語や句 ry 05795782016/12/04(日) 17:40:14.36ID:VL9xSNhJ 3) 予測は文脈依存 ry 予測は過去に何が起こったか、そして現在何が起こっているかに基づいて行われる。 従って直前の文脈に基づいて、ある入力から異なった予測が行われることがある。 HTM リージョンは必要なだけのより多くの直前の文脈を用いて学習し、 短時間ないし長時間の両方の文脈を保持 ry 可変長記憶18 ry 例えば、暗唱 ry ゲティスバーグ演説19 ry 。次の単語を予
18 variable order memory 19 Gettysburg Address。「人民の人民による人民のための政治」のフレーズが有名。 ”Four score and seven years ago our fathers brought forth on this continent, a new nation, conceived in Liberty, and dedicated to the proposition that all men are created equal...” (以下略) 0580yamaguti~貸2016/12/05(月) 18:56:24.50ID:s5+vq0Ta 第五世代コンピュータ計画 = 大成功
2 > 理論が大事 ry 。やってみたら出来ました、結果が出ましたという研究が多い。 > ディープラーニング ry は、入力情報と出力情報を一致させる同じニューロン数から成る恒等写像を > 作ることを繰り返すのだけど、その際、途中(中間層)でニューロン数を絞るので非線形の情報圧縮が起き、 > ry 圧縮 ry 。だけど、それが何故上手くいって、何をやっているのかを理論的に解明しないと、 > 大きな飛躍にはならないと思います。 ry > 理論研究は世界的にあまり進んでいなくて、みんな使ってみて結果を出すことに熱中
5 > ディープラーニングに関しては、もっと数理をやらないと底が浅い話 ry 危惧 ry > 使ってみたら出来ましたっていう研究 ry も良いと思いますが、 > 僕らは数理の研究者なので、どうして上手くいくのかが分からないと僕らの研究にはならない 05875862016/12/10(土) 01:59:36.18ID:O8le5YJ4http://www.sankeibiz.jp/smp/aireport/news/160605/aia1606050700001-s3.htm > 「ディープラーニングを使って、動的なものすなわち時空間のダイナミクスを扱おうとすると、 > これまで失敗してきたことの繰り返しになると思います。 > ニューラルネットワークを使って、時空間のダイナミクスを扱う研究は何十年もされてきてはいますが、 ry > 。むしろ、そういった時空間情報を扱う手法は、既に数学的に ry 。ディープラーニングは要素技術としては
測するには、現在の単語だけでは全く不十分 ry ”and” の次に “seven” が来ることもあれば、 ry 。ときにはほんの少しの文脈で予測 ry “four score and” と分かれば次の “seven”を予測できる。 他の場合はフレーズが繰り返される場合 ry 、より長い文脈を使う必要がある。
4) 予測は安定化に ry あるリージョンの出力はその予測である。 HTM の特徴の一つは、リージョンからの出力はより安定 ry 。安定とはつまり、階層構造の上位に行くほどよりゆっくりと変化し、長く継続 ry 。リージョンは ry 可能なときは時間軸の複数ステップ先 ry 5 ステップ先 ry 。新しい入力 ry 、新たに予測されたステップは変化するが、 しかしそのうちの 4 つの既に予測されたステップは変化しない。 ry 、出力の一部だけが変化するので、出力は入力よりも安定化している。 ry 。 歌の名前のような高レベルの概念は、 ry 音のような低レベルの概念よりもゆっくり ry
5) ry 、新しい入力が予期されたものか予期しないものかが分かる 各リージョンは ry 、予期せぬ事 ry 知ることができる。 HTM は次の入力として起こりうる ry 一度に多数予測 ry 正確に予測できるわけではないが、 ry どの予測にも一致しないとき、何か普通でないこと ry
6) 予測はシステムをノイズにより強く ry HTM ry 、推論をその予測に従う方向へ向かわせる ry 話し言葉 ry 、次にどんな音が、単語が ry 予測により、欠落したデータを埋め合わせ ry あいまいな音 ry 予測していることに基づいてその音を解釈 ry 、ノイズ ry 推論 ry
ry ニューロサイエンスの用語を使用する。セル22、シナプス23、 シナプス候補24、樹状突起セグメント25、カラム26などの用語 ry 。学習アルゴリズムは理論上の必要に応じてニューロサイエンスの細部に照らし ry 。しかし ry 性能の問題 ry 働きを理解したと感じたときには処理速度を向上させる別の方法 ry 、生物学的な詳細に厳格にこだわるのではなく、同じ結果が得られさえすれば ry ニューロサイエンスの用語 ry としばしば違う ry 。付録 ry HTM 学習アルゴリズムとニューロ生物学的に等価 ry 相違点・類似点 ry
セル状態 ry セルは3つの出力状態 ry 。フィード・フォワード入力によりアクティブな状態、 横方向の入力によりアクティブな状態(これは予測を表す)、アクティブでない状態である。 最初の出力状態はニューロンのアクション状態による短時間のはげしい出力27に相当する。 2つ目の出力状態はもっとゆっくりとした、安定した出力28に相当
22 cell 23 synapse 24 potential synapse 25 dendrite segment 26 column 27 a short burst of action potentials in a neuron