推論 HTM が周囲の世界のパターンを学習すると、新しい入力について推論ができ ry 、以前に学習した空間的ないし時間的パターンと照合 ry 入力が以前に格納したシーケンスとうまく適合 ry が、推論とパターンマッチングの本質 ry
メロディをどうやって理解 ry 最初の音 ry 次の音 ry 十分では ry 普通は3,4,ないしそれ以上の音 ry 。HTM リージョンの推論も似 ry 継続的に入力列を見て、以前学習したシーケンスと照合 ry シーケンスの最初から ry が普通はもっと流動的で、 ry メロディがどこから始まっても貴方が理解できることと似 ry HTM リージョンは分散表現を用いるので ry シーケンスを記憶ないし推論することは上記のメロディの例よりも複雑 ry
貴方がセンサから新しい入力 ry すぐに明確になるとまでは言えないものの、 慣れ親しんだパターンを ry 容易に見つける ry 、例え老人であっても若い人 ry 、ほとんどの人が話す「朝食」という言葉を理解できる。 同じ人が同じ「朝食」という単語を百回発音しても、その音は二度と、 貴方の蝸牛殻17(音の受容体)を正確に同じように刺激することはないにも関わら ry 05715702016/11/27(日) 07:36:49.57ID:vHhUl6EA HTM リージョンも脳と同じ問題に直面する:入力は決して正確に繰り返されない。 さらに、ちょうど脳と同じように、 ry 推論や訓練の最中にも新しい入力 ry 対処する一つの方法は、疎分散表現 ry 。疎分散表現の鍵となる特徴は、パターンの一部
> ry 大きく分けて領野間 ry マクロ・コネクトームと、 ry ニューロン間のシナプス結合を表すミク ry
> 新皮質は6層 ry 、階層内(横方向)はミクロ・コネクトームによる密結合であり、主に時間系列 ry > 。階層間(縦方向)はマクロ・ ry 疎結合であり、主に静的パターンを処理する。 > 最下層では知覚の入力および筋肉への出力が行われ、最上層は意識あるいは論理的思考を司る。 > 階層を上昇する情報はフィードフォワード(FF)あるいはボトムア ry 下降 ry バック(FB)あるいはトップダ ry > 。これらの情報の流れはベイジアンネットワークの性質 ry
> ry 。深層学習におけるバック・プロパゲーションはFBとは別物である。実際の脳ではFB情報が重要 ry > 。FF情報とFB情報は必ずしも対称的ではない。FB情報の方がむしろ多 ry > 。さらに重要なのは階層内からの情報である。下の階層からくる情報は全体の5-10%にすぎない。 > ry HTM理論では階層内の横からの情報は遷移確率のような時間的情報である。 > ry 、ゼータ1ではFBを扱うがCLAでは扱えず、これはCLAの欠点である。
> 新皮質の6層構造間と領野間の情報の流れについても解明が進んでいる。 > 新皮質への情報はまず4層に入り、そこから2/3層に送られる。 > さらに上の階層へは直接の経路と視床を経由する2種類がある。 > 5層は運動を支配している。 > 6層からはFBで1層に入る。 > CLAアルゴリズムでは4層と2/3層は実装されているが、5層と6層は実装されていない。 05765752016/12/02(金) 18:45:32.64ID:HgThED5J > HTM理論の解説 > > ry 発展に伴い実装 ry 。Numentaの資料により初代のゼータ1 から CLA, Gen3, そして将来の Gen4 ry > 。以下では ゼータ1, CLA, Gen3 ry > ゼータ1 ry 、教師なし学習、木構造の階層構造、上の階層ほど空間的・時間的に不変性 ry > 、バッチ学習、学習と推論フェーズの分離 ry > 。学習は階層ごとに行われ、階層を上がるに従い空間プーリングと時間プーリングによ ry 不変性 ry > 。下層から上層へのFFだけでなく、上層から下層へのFBも実装されている。 > Vicarious ではゼータ1を発展させた Recursive Cortical Network 理論が実装 ry CAPTCHA を破る ry > > CLAは神経科学の知見を取り込み、 > 神経細胞の細胞体、基底樹状突起、遠隔樹状突起、尖端樹状突起、軸索などとモデルを対応付けている。 > 新皮質の6層構造において情報は三方向 ry 下の階層、上の階層、同じ階層の横方向から入ってくるが、 > 下からの入力は5%ほどで、残りの95%は上と横 ry 。CLAにおいては遠隔樹状突起を経由しての横方向 > からの入力を扱うことが、通常のニューラルネットワークの理論と異なっている。 > > CLAの主な特徴は、空間プーリング、時間プーリング、SDR (Sparse Distributed Representation, スパース表現) > によるデータ表現である。空間プーリングとは、ry 。時間プーリングとは、 ry 。 > SDR は、一つのパターンを多数のニューロン(コラム)のうちの複数のニューロン(コラム)で表現することで、 > 豊富な表現力と頑強性を実現している。実際の脳ではSDRが採用されている。 > ry 反対に一つのパターンを一つのニューロンで表現する方法は Point Neuron あるいは Localist 表現と呼ぶ。 > SDRの幾何学的表現は、基底樹状突起をHTM空間における短いベクトルとし、 > 下の階層の長いベクトルを多数の短いベクトルの和として表現していると考えられる。 > これをSDRのハリネズミモデル ry モデルの具体例として脳の集団符号化方式がある。 > Gen3 は CLA の後継として Numenta が2014年 ry 05775752016/12/03(土) 12:21:12.63ID:97cte86A>>575-576 http://webcache.googleusercontent.com/search?q=cache:wba-initiative.org/wp-content/uploads/2015/05/20160518-wba14-matuda.pdf05785702016/12/04(日) 17:39:24.40ID:VL9xSNhJ Page 21
分だけをマッチングするだけでほぼ確実にマッチ ry
予測 HTM の各リージョンはパターンのシーケンスを格納する。 ry 現在の入力とマッチングすることで、次に到着すると思われる入力の予測をする。 ry 実際には疎分散表現の間の変遷を記録する。 あるときはその変遷はメロディの中の音に見られるように線形のシーケンスであるが、 一般的な場合は将来入力される可能性があるものが同時に多数予測される。 HTM リージョンはときには長期間に及ぶ過去の文脈に基づいて異なる予測をする。ry 。
HTM の予測の鍵 ry
1) 予測は継続的 ry 貴方は特に意識していなくても継続的に予測 ry HTM も同じ ry 歌 ry 次の音 ry 。階段 ry 足がいつ次の段に触れるか ry 予測と推論はほとんど同じ ry 。予測は分離された処理ではなく ry 統合 ry
2) 予測は階層構造のすべてのレベルのすべてのリージョンで起こる ry 。リージョンはそれが既に学習したパターンについて予測 ry 。言語の例では、低レベルのリージョンでは次の音素を予測し、高レベル ry 単語や句 ry 05795782016/12/04(日) 17:40:14.36ID:VL9xSNhJ 3) 予測は文脈依存 ry 予測は過去に何が起こったか、そして現在何が起こっているかに基づいて行われる。 従って直前の文脈に基づいて、ある入力から異なった予測が行われることがある。 HTM リージョンは必要なだけのより多くの直前の文脈を用いて学習し、 短時間ないし長時間の両方の文脈を保持 ry 可変長記憶18 ry 例えば、暗唱 ry ゲティスバーグ演説19 ry 。次の単語を予
18 variable order memory 19 Gettysburg Address。「人民の人民による人民のための政治」のフレーズが有名。 ”Four score and seven years ago our fathers brought forth on this continent, a new nation, conceived in Liberty, and dedicated to the proposition that all men are created equal...” (以下略)