はシーケンスを理解し、予測 ry C, D, E, F を予測する。 B のセル33は既にアクティブであるから B, C, D, E, F がそれぞれ 2 つのアクティブな状態のどちらかになる。 ry 次の音 C ry アクティブ状態のセルと予測状態のセルの集合は C, D, E, F, G を表す。 入力パターンは B から C へとまったく違うものに変化したが、20%のセルだけが変化 ry
ry の出力はリージョン内のすべてのセルのアクティブ状態を示すベクトル で表されるので、この例の出力では入力に比べて 5 倍安定 ry 階層構造を上に登るに従って時間的な安定性が増加 ry 表現に文脈を追加して予測を行う 2 つのステップを「時間プーリング」 ry シーケンスに対してゆっくりと変化する出力を生成することで、 時間と共に順に現れる異なるパターンを「プールする」34。 ry 別のレベルで詳細化 ry 空間プーリングと時間プーリングで共通の概念から始 ry
共通概念
空間 ry と時間プーリングの学習は似て ry 、セル間の接続関係、あるいはシナプス の形成を含む。 時間プーリングは同じリージョン内のセル間の接続を学習する。 空間プーリングは入力ビットとカラムとのフィード・フォワード接続を学習する。
二値ウェイト HTM のシナプスは 0 又は 1 ry 。多くの他のニューラルネットワークモデルでは 0 から 1 の範囲で変化するスカラー値のウェイトを用いるのと異な ry
永続値 シナプスは学習を通じて継続的に形成されあるいは切断 ry 、各シナプスに(0.0 から 1.0 の)スカラー値を割り当て、接続がどのくらい永続的 ry 。接続が強化されれば、永続値は増加する。他の状況では、永続値は減少する。 ry しきい値(例えば 0.2)を上回れば、シナプスは形成され ry 下回れば、シナプスは無効 ry
樹状突起セグメント シナプスは樹状突起セグメントに接続される。樹状突起には主要と末梢の 2 種 ry
- 主要樹状突起セグメントはフィード・フォワード入力との間のシナプスを形成する。 ry アクティブなシナプスは線形に加算され、これにより カラムがフィード・フォワード入力によるアクティブ状態になるか否かが決定される。 - 末梢樹状突起セグメントは同じリージョン内のセル間のシナプスを形成する。 各セルはいくつかの末梢樹状突起セグメントを持つ。 ry アクティブなシナプスの合計がしきい値を超えたら、 接続されたセルは予測状態によりアクティブになる。 一つのセルに複数の末梢樹状突起セグメントがあるので、 セルの予測状態はそれぞれをしきい値で判定した結果の論理和 ry 06446432017/02/03(金) 08:50:41.34ID:qVY5ajPD シナプス候補 ry 、樹状突起セグメントはシナプス候補のリストを持つ。 ry 候補は永続値 ry がしきい値を超えたら有効に機能するシナプスとなる。
学習 学習では樹状突起セグメント上のシナプス候補の永続値を増加・減少させる。 ry 用いられる規則は「ヘブの学習規則」35に似ている。 例えば、ある樹状突起セグメントがしきい値以上の入力 を受け取ったためにセルがアクティブに ry シナプスの永続値を修正する。 シナプスがアクティブであり、従ってセルがアクティブになることに貢献した場合、 その永続値を増 ry 。ry がアクティブではなく ry 貢献しなかった場合、その
35 Hebbian learning rules。「細胞 A の軸索が細胞 B を発火させるのに十分近くにあり、 繰り返しあるいは絶え間なくその発火に参加するとき、 いくつかの成長過程あるいは代謝変化が一方あるいは両方の細胞に起こり、 細胞 B を発火させる細胞の 1 つとして細胞 A の効率が増加する。」 06456432017/02/05(日) 14:16:41.40ID:P54mEcWs Page 34
永続値を減 ry 永続値を更新する正確な条件は、空間プーリングと時間プ ry とでは異な ry
空間プーリングの概念
空間プーリングの最も基本的な機能はリージョンへの入力を疎なパターンに変換 ry 。シーケンスを学習して予測 ry 疎分散パターンから始めることが必要 ry 。空間プーリング ry いくつかの到達目標がある。
1) すべてのカラムを使用する HTM リージョンは入力の共通したパターンに対する表現を学習するための 固定数のカラムがある。一つの目的は、全体の ry すべてのカラムが確かに、 ry 学習 ry 。決してアクティブにならないようなカラムは必要でない。そうならないために、 各カラムがその周囲のカラムと相対的にどのくらい頻繁にアクティブになるかを常に監視 ry 頻度が低すぎるときは、そのカラムが勝者となるカラムの集合に含まれ始めるように ry アクティブになる基準をブースト36する。 ry カラムは周囲のカラムと互いに競合しており、入力パターンに対する表現に 加わろうとしている。あるカラムがほとんどアクティブにならないときは ry 積極的に ry 、他のカラムはその入力を変更させられて少しだけ異なる入力パターンを表現し始める。 06466452017/02/05(日) 14:17:14.74ID:P54mEcWs 2) 望ましい密度を維持する リージョンは入力に対する疎な表現を形成する必要がある。 最大の入力を受け取ったカラムは周囲のカラムを抑制する。 抑制範囲を決める半径は、そのカラムの受容野37のサイズに比例する (従ってまた、小さなサイズからリージョン全体に至る範囲を取る)。 抑制半径の範囲内では、多くのアクティブな入力を受け取ったわずかなパーセンテージ のカラムだけを「勝者」とする。その他のカラムは無効化される。 (抑制「半径」の語感は二次元状に配置されたカラムを暗示しているが、 この概念は他のトポロジにも適用できる)
36 boost。後押しする、増強するなどの意。後述のアルゴリズムでブースト値という変数 ry 37 receptive field 06476452017/02/08(水) 02:03:27.72ID:63WsxX0P Page 35
3) 些細なパターンを避ける すべてのカラムが些細ではない入力パターンを表すこと ry は、 カラムがアクティブになる ry 最小のしきい値を設定することで達成 ry 。例えば、しきい値を 50 とすると、カラムがアクティブになるには その樹状突起セグメント上のアクティブなシナプスが 50 個以上必要であり、 ry あるレベル以上に複雑なパターンだけが表現される ry
4) 余分な接続関係を避ける よく注意しないと、あるカラムが巨大な数の有効なシナプスを保持する ry 。すると、あまり関連性のない多くの異なる入力パターンに強く反応するようになる。 シナプスの異なる部分集合は異なるパターンに反応するだろう。 この問題を避けるため、勝者カラムに現在貢献していないシナプスすべて ry 永続値を減 ry 。貢献していないシナプスに確実に十分なペナルティを与えることで、 一つのカラムが表現する入力パターンが限定 ry 06486452017/02/08(水) 02:04:30.13ID:63WsxX0P 5) 自己調整的な受容野 実物の脳は高い可塑性38を示す。 新皮質のリージョンは、様々な変化に反応してまったく異なる事柄の表現を学習できる。 もし新皮質の一部が損傷したら、 ry 他の部分によって表現するように調整される。 もし感覚器官が損傷したり変化したりすると、 それに関連付けられていた部分の新皮質は何か他のことを表現するように調整される。 システムは自己調整的である。我々の HTM リージョンにも同様の柔軟性を求めたい。 あるリージョンに 10,000 個のカラムを割り当てたら、 入力を 10,000 個のカラムで最適に表現する方法を学習するべき ry 入力の統計的性質が変化したら、カラムは ry 最適に表現するように変化するべき ry まとめると、HTM の設計者はリージョンに任意のリソースを割り当てることができて、 そのリージョンは利用可能なカラムと入力の統計的性質に基づいて入力を最適に表現 ry できるべきである。 一般的な規則は、リージョンのカラムがより多くあれば、 各カラムは入力のより大きくより詳細なパターンを表現 ry 。なお一定の粗さを保つが39、カラムは普通、より稀にアクティブになる。
時間プーリングがシーケンスを学習し、予測をすることを思い出して欲しい。 基本的な方法は、あるセルがアクティブになったら直前にアクティブであった他のセルとの 接続を形成することである。これによりセルは、そのセルの接続を調べることで いつそれがアクティブになるかを予測 ry 。すべてのセルがこれを行えば、 全体としてそれらはシーケンスを記憶してそれを思い出し ry 予測できる。 ry シーケンスを記憶するための集中記憶装置はなく、 ry 記憶は各セルに分散配置される。 記憶が分散 ry 、システムはノイズや誤りに強くなる。 ry 、疎分散表現の重要な特徴を 2, 3 述べておく ry
ry あるリージョンが全部で 10,000 個あるセルのうち、常に 200 個のセルがアクティブ になることで表現を形成しているとしよう( ry 2%のセルがアクティブ)。 200 個のアクティブなセルで表される特定のパターンを記憶・理解するには ry 単純な方法は、関心がある 200 個のアクティブなセルのリストを作成 ry 。ちょうど同じ 200 個のセルが再びアクティブになったことが分かれば、 そのパターンを理解したことになる。 しかしながら、 ry 20 個だけのリストを作成して、残りの 180 個を無視したとしたら ry ? ry 200個のセルの異なるパターンにおいてそれら 20 個の部分がちょうどアクティブに なるようなパターンが数多く存在して、間違いだらけに ry はならない。 パターンは大きくかつ疎であるため(ry 10,000 個のうち 200 個のセルがアクティブ)、 20 個のアクティブなセルを記憶することで ry うまく記憶できる。 実際のシステムで間違いが起こる可能性は極めて稀 ry メモリ量を非常に節約 ry 06526512017/02/11(土) 12:03:13.50ID:Xj0b950+ HTM リージョンのセルはこの特徴を利用している。各セルの樹状突起セグメントは 同じセル内の他のセルへの接続関係の集合を持つ。樹状突起セグメントは ある時点でのネットワークの状態を理解する ry ため、これらの接続を形成している。 周囲のアクティブなセルは数百から数千あるかも知れないが、 ry が接続しなければならないのはこのうちの 15 から 20 程度に過ぎない。 ry 15 個のセルがアクティブと分かれば、その大きなパターンが発生 ry ほぼ確信できる。 このテクニックを「サブサンプリング」と呼び、HTM アルゴリズム全体を通じて利用している。
各セルは多くの異なる分散パターンに関与し、また多くの異なるシーケンスに関与 ry 。ある特定のセルは数十から数百の時間的遷移に関与しているかも ry 。従って各セルは一つではなく、いくつかの樹状突起セグメントを持つ。 ry セルが理解したいアクティビティの各パターンごとに一つの樹状突起セグメントを持つこ 06536612017/02/12(日) 14:29:02.49ID:BZYpOz1d Page 38
とが望ましい。しかし ry 樹状突起セグメントはいくつかの完全に異なるパターンに関して 接続を学習することができ、それでもうまく行く。 例えば、一つのセグメントが 4 つの異なるパターンのそれぞれについて 20 ry 都合 80 個 の接続を持つとする。そして、これらの接続のうち任意の 15 個がアクティブ なときに樹状突起セグメントがアクティブとなるようにしきい値を設定する。 これにより誤りが発生する可能性が生じる。 異なるパターンが混在することで、 ry 15 個のしきい値に到達する可能性がある。 しかしながら、表現の疎な性質により、このような誤りは非常に起こりにくい。
フィード・フォワードによってアクティブになったセルだけを処理するのは リージョンの内部だけであって、それ以外では予測はさらなる予測を引き起こす ry 。しかし(フィード・フォワードと予測の)すべてのアクティブなセルは リージョンの出力となり、階層構造の次のリージョンへと引き継がれる。 06576562017/02/15(水) 22:27:09.36ID:4UMkv2wE 一次と可変長42のシーケンスと予測
ry
一つのカラムに対するセルの数を増 ry 減 ry の効果 ry ? 特に、1カラムに1つのセルしかないとき ry ?
以前用いた例では、カラム当たり4セルのアクティブなカラムが 100 個の場合、 入力の表現は 4100 通りの異なるコード化が可能 ry 。従って、同じ入力が様々な文脈の中で出現しても混乱しない ry 。例えば、もし入力パターンが単語を表すなら、リージョンは 同じ単語が何度も使われる多くの文章を混乱することなく
41 原文は“inactive to active”となっているが、web 上の forum で “predictive state to active state”の間違いだったとの訂正があった。 (2010/12/14 Sabutai: title “Cortical Algorithms document: praise and suggestions”) 42 “first order” と “variable order”。前者は一つだけの長さのシーケンスと予測、 後者は任意の長さのシーケンスと予測。 0658オーバーテクナナシー2017/02/16(木) 09:52:28.99ID:n4SoUyRChttps://youtu.be/2q-vGObpa4M0659オーバーテクナナシー2017/02/17(金) 08:25:58.71ID:C7chZT7r 関連スレ
カラム当たり 5 セルに増やすと、 ry 可能なコード化の数は 5100 に増加し、4100 よりずっと大きくなる。 しかし、 ry 多くの現実的な問題においてこの容量の増加はあまり役に立たない ry
しかしながら、 ry 少なくすると、大きな違いが生まれる。
もしカラム当たり1セルまでになると、文脈の中で表現する能力を失 ry リージョンへの入力は、以前の活動に関係なく常に同じ予測を引き起 ry 。カラム当たり1セルの場合、HTM リージョンの記憶は一次記憶となり、 予測は現在の入力だけに基づ ry
一次予測は脳が解くことのできるある種の問題 ―静的空間推論― に理想的である。 ry 目が後を追うには短かすぎる時間であっても ry 聞く ry 理解するには常にパターンのシーケンスを聞く必要がある。 視覚も普通はそれに似ていて、視覚的イメージの流れを処理する必要がある。 しかしある条件下では、一瞬 ry 06616602017/02/17(金) 13:49:24.30ID:pF3vP0RD 時間的理解と静的理解とでは、異なる推論メカニズム ry 一方は可変長の文脈に基づいてパターンのシーケンスを理解し、予測をする必要がある。 他方は時間的文脈を使わずに静的な空間的パターンを理解する必要がある。 カラム当たり複数のセルを持つ HTM リージョンは時間に基づくシーケンスを理解 するのに理想的であり、カラム当たり1セルの HTM リージョンは空間的パターンを理解 するのに理想的である。 Numenta では、カラム当たり1セルのリージョンを視覚問題に適用した実験を数多く実施 ry 重要な概念だけ述べる。
もしリージョンへの入力画像が、垂直な線が右に移動するものだったら ry ? カラム当たり1セルしかなかったら、線が次に左又は右に現れること43を予測できる ry 。線が過去にどこにあったか知っているという文脈を使うことができないため ry 移動していることを知ることはできない。 このようなカラム当たり1セルのものは、新皮質の「複雑型細胞」44のように振舞う ry 。そのようなセルの予測出力は、 ry 動いていようがいまいが 異なる位置にある視覚的な線に対してアクティブになるだろう。 このようなリージョンは異なるイメージを区別する能力を保持する一方で、 平行移動や大きさの変化に対して安定 ry 。このような振る舞いは、空間的不変性(同じパターンの異なる見方 ry ) ry
もし同じ実験をカラム当たり複数のセルを持つ HTM リージョンに対して行えば、 そのセルが新皮質の「方位選択性複雑型細胞」45のように振舞う ry 。セルの予測出力は左に移動する線や右 ry 線に対してアク ry になるが、両方に対しては ry 06666652017/02/19(日) 00:41:39.93ID:Iy/nas+o これらをまとめ ry 仮説 ry 新皮質は一次と可変長の両方の推論及び予測 ry 。新皮質の各リージョンには 4 又は 5 層のセルがある。 ry それらはすべてカラム単位で応答する性質 ry 水平方向に大きな接続性 ry 。新皮質のセルの層は ry HTM の推論と学習に似たことを実行しているのではないか ry 。異なる層のセルは異なる役割 ry 。例えば解剖学によれば 第 6 層は階層構造のフィードバックを形成し、第 5 層は運動の動作に関わっている。 。異なる層のセルは異なる役割 ry 解剖学 ry 6 層は階層構造のフィードバックを形成し、第 5 層は運動の動作 ry 。セルの 2 つの主要なフィード・フォワード層は第 4 層と第 3 層である。 ry 4 層のセルが独立に、即ちカラムの中で1セルだけが動作するのに対して、 第 3 層のセルはカラムの中で複数のセルが動作 ry 。よってセンサ入力に近い新皮質のリージョンは一次記憶と可変長記憶の両方を持つ。 一次シーケンス記憶(だいたい第4層のニューロンに対応する)は空間的に不変の表現 ry 。可変長シーケンス記憶(だいだい第 3 ry )は動画像の推論と予測に役立つ。
まとめ ry 章で述べたようなアルゴリズムは新皮質のニューロンのすべての層 ry 仮説 ry 。新皮質の層の詳細は大きく違っていて、 フィード・フォワードとフィードバック、注意46、運動動作47に関する異なる役割を演じ
43 「移動する」ことは予測できないが、隣の位置に「出現する」ことは予測 ry 44 complex cell 45 directionally-tuned complex cell 46 attention 47 motor behavior 06676652017/02/20(月) 00:16:09.76ID:PjnuggmX Page 42
ry 一次(カラム当たり1セル)の HTM リージョンを画像認識問題に適用する実験 ry 可変長(カラム当たり複数セル)の ry に可変長のシーケンスを理解・予測させる実験 ry 。将来 ry 一つのリージョンに混在させ、他の目的にもアルゴリズムを拡張 ry しかしながら、一つの層と等価なカラム当たり複数セルの構造が、 単体であれ複数階層であれ、多くの興味深い問題を取り扱いうる ry 0668オーバーテクナナシー2017/02/22(水) 14:16:16.71ID:NK3va3H8 35:54 ↓ 10:40 https://www.youtube.com/watch?v=WTdY7h129Mk
ry プーリング関数48の最初の実装の疑似コード ry 。このコードの入力は、センサー・データ又は前のレベルからのバイナリ配列である。 このコードは activeColumns(t) を計算する。activeColumns(t) は 時刻 t において、フィード・フォワード入力に対して選択されたカラムのリスト ry 時間プーリング関数の入力 ry activeColumns(t) は空間プーリング関数の出力 ry 06706692017/02/26(日) 02:07:54.96ID:vIzrnxYS 疑似コードは3つのフェーズ ry 順に実行 ry
ry 1: 各カラムについて、現在の入力のオーバラップを計算する。 ry 2: 抑制の後に勝者となったカラムを計算する。 ry 3: シナプスの永続値と内部変数を更新する。
以下、3つのフェーズのそれぞれについて疑似コードを示す。 ry データ構造や補助関数は本章の最後に示す。
初期化 最初の入力を受け取る前に、各カラムの最初のシナプス候補のリストを計算して リージョンを初期化する。 これは入力配列の中からランダムに選択された入力位置のリストで構成される。 各入力はシナプスで表現され、ランダムな永続値が割り当てられる。 ry 永続値は二つの条件を満たす ry 。第一に、その値は connectedPerm (シナプスが「接続している」と判定される最小の永続値)の前後の狭い範囲 ry 。これにより、訓練を少ない回数繰り返しただけで、 ry 接続(ないし切断) ry 。第二に、各カラムは入力リージョン上で自然な中心位置があり、 永続値 ry バイアス ry 。(中心付近ではより高い値 ry )
48 spatial pooler function 49 online。推論の計算と学習の計算を分離せずに、同時 ry 06716692017/02/26(日) 17:47:14.84ID:vIzrnxYS Page 44
フェーズ 1: オーバラップ ry 与えられた入力ベクトルについて、そのベクトルと各カラムのオーバラップを計算する。 ry オーバラップは、アクティブな入力と接続されたシナプスの数 ry にブースト値を掛け ry 。もしこの値がminOverlap を下回 ry 0 ry
1. for c in columns 2. 3. overlap(c) = 0 4. for s in connectedSynapses(c) 5. overlap(c) = overlap(c) + input(t, s.sourceInput) 6. 7. if overlap(c) < minOverlap then 8. overlap(c) = 0 9. else 10. overlap(c) = overlap(c) * boost(c) 06726712017/02/26(日) 17:49:20.84ID:vIzrnxYS フェーズ 2: 抑制 ry 抑制の後に勝者となったカラムを計算する。 desiredLocalActivity は勝者となるカラムの数を制御するパラメータである。 例えば、 desiredLocalActivity を 10 ry 抑制半径 ry においてカラムのオーバラップ値が高い順に 10 位以内のカラムが勝者 ry
11. for c in columns 12. 13. minLocalActivity = kthScore(neighbors(c), desiredLocalActivity) 14. 15. if overlap(c) > 0 and overlap(c) minLocalActivity then 16. activeColumns(t).append(c) 17.
フェーズ 3: 学習 ry 学習を実行 ry シナプスの永続値は必要に応じて更新され、 ブースト値と抑制半径を更新する。 06736712017/02/27(月) 23:47:53.65ID:2got1qbV Page 45
主要な学習規則は 20-26 行 ry 。勝者となったカラムのそれぞれについて、 もしあるシナプスがアクティブであればその永続値をインクリンメントし、 その他の場合はデクリメントする。永続値は 0 から 1 の範囲 ry
>205 >135 : YAMAGUTIseisei 20161009 >繰返しになるが既にできている ( 自分だけの問題でないので全てを詳らかにできないが自分の師匠がとうの昔に簡易 06876202017/04/09(日) 08:19:51.34ID:XXlcdpGX>>630 #60#62-64 >パルス ry 頻度が重要 ry よってセルの出力はスカラー値と見 ry 学習はシナプスのウェイトを調整 ry 非線形 ry このタイプの人工ニューロン ry 有益 ry しかし ry 複雑さを捉えておらず ry もっと精巧 ry 必要 >68 spike ry 尖った波形
>樹状突起セグメントは、以前 ry 同時にアクティブ ry セルへの接続 ry で ry 記憶する。そのセグメントは、以前にフィード・フォワード入力によってアクティブ ry を記憶