ry ニューロサイエンスの用語を使用する。セル22、シナプス23、 シナプス候補24、樹状突起セグメント25、カラム26などの用語 ry 。学習アルゴリズムは理論上の必要に応じてニューロサイエンスの細部に照らし ry 。しかし ry 性能の問題 ry 働きを理解したと感じたときには処理速度を向上させる別の方法 ry 、生物学的な詳細に厳格にこだわるのではなく、同じ結果が得られさえすれば ry ニューロサイエンスの用語 ry としばしば違う ry 。付録 ry HTM 学習アルゴリズムとニューロ生物学的に等価 ry 相違点・類似点 ry
セル状態 ry セルは3つの出力状態 ry 。フィード・フォワード入力によりアクティブな状態、 横方向の入力によりアクティブな状態(これは予測を表す)、アクティブでない状態である。 最初の出力状態はニューロンのアクション状態による短時間のはげしい出力27に相当する。 2つ目の出力状態はもっとゆっくりとした、安定した出力28に相当
22 cell 23 synapse 24 potential synapse 25 dendrite segment 26 column 27 a short burst of action potentials in a neuron 0597yamaguti~貸2016/12/17(土) 01:24:35.33ID:6O1Nu3vi >502 : yamaguti~kasi 2016/12/16(金) 12:12:06.60 ID:2MPdD9+O > 価値貯蔵システム = 記憶システム > ネイティブ記憶システム = ネイティブマスターアルゴリズム
する。 ry これら2つのアクティブ状態以上の詳細なモデル化の必要性はない ry 個々のアクション状態の強さの程度、アクティビティの発生頻度を表すスカラー量 などはモデル化する必要性を見いだせない。分散表現の利用は、 セルのアクティビティの程度を表すスカラー量をモデル化することを凌駕 ry
樹状突起セグメント HTM セルは比較的リアルな( ry 複雑な)樹状突起モデルを持つ。各 HTM セルは理論的に 一つの主要樹状突起セグメント29と 10~20 個の末梢樹状突起セグメント30を持つ。 主要樹状突起セグメントはフィード・フォワード入力 ry 末梢樹状突起セグメントは周辺のセルからの横方向の入力 ry 抑制セルは同じカラム中の全てのセルが 類似のフィード・フォワード入力に対して応答するように強制する。 単純化のため、各セルごとの主要樹状突起セグメントを取り除き、 同じカラム中のすべてのセルで共有する一つの主要樹状突起セグメントで置き換えた。 空間プーリング関数(後述)はカラム単位で、共有の樹状突起セグメントに対して作用する。 時間プーリング関数はカラム中の個々のセル単位で、末梢樹状突起セグメントに対 ry 。生物学的にはカラムに接続するような樹状突起セグメントは存在しない ry この単純化は同等 ry 06026012016/12/20(火) 23:57:21.05ID:ymkk5AtR シナプス ry 二値のウェイトを持つ。生物学上のシナプスは可変値のウェイト ry 確率的・不安定 ry 生体ニューロンはシナプスのウェイト値の正確な値に依存しているはずがない ry 。HTM の分散表現及び我々の樹状突起の計算モデルを利用すれば、 HTM シナプスに二値のウェイトを割り当てても何ら悪影響はないはずである。 シナプスの形成及び切断をモデル化 ry 2つの追加 ry ニューロサイエンスから援用した。 一つ目は、シナプス候補の概念である。これは樹状突起セグメントに十分近い位置を通る すべての軸索を表し、シナプスを形成する可能性があるものである。 二つ目は、永続値である。これは各シナプス候補に割り当てられたスカラー値である。 ry 軸索と樹状突起の間の接続の度合 ry 度合は生物学的には、完全に分離した状態から、 接続はしていないがシナプスを形成し始めた状態、最小限にシナプスが接続した状態、 大きく完全にシナプスが接続された状態に至るまでの範囲を取る。シナプスの
> ry 係数が0になる部分をできるだけ増 ry 計算を簡略化 ry > ─重みづけに使う係数が0になるところを増やして計算をできるだけ簡略化 ry > ry データの特徴を分析して、その枝の部分でも重要な枝 ry 決め打ちで残します。 > ─これは人が残すのでしょうか? > 現時点では人が枝を選別しています。枝を大幅に削減しても性能が落ちない事を理論的に証明 ry > 数字がたくさんあるものは「密な行列」 ry 、従来のディープラーニングと一緒。 > そこで値をほとんど持たない「疎な行列」をどう構成 ry > ─その太い幹っていうのを見切るところがすごく難しそうです。 ry 、どれだけ残して、どれだけ切 ry > ry 、例えば入力のデータに対して主成分となり得るような重要なデータの個数がある程度限定 ry > 、情報を欠損させないで中間層に伝搬させる事は可能 ry 証明 ry 1/30に削減しても同様の効果 ry > ─これはこのデータだからという事はないのでしょうか? > ry 制約条件はありません。 > ─人の顔の認識などデータが複雑だと難しいということはないのでしょうか? > ry 、さっきのガンマに依存しないっていうのは実は驚異的 ry
の疎表現は、抑制の後でどのカラムがアクティブでどれが非ア ry 。例え入力ビットのうちアクティブなビットの数が大幅に変化した場合であっても、 相対的に一定の割合のカラムがアクティブになるように抑制関数が定義される。
図 2-1 カラムとセルからなる HTM リージョンの例。リージョンの一部分のみ ry 。各カラムは入力のユニークな部分集合によるアクティベーションを受け取る。 最も強いアクティベーションを受けたカラムが他の弱いアクティベーションを抑制する。 結果は入力の疎分散表現である。(アクティブなカラムは灰色で示した)
ry ほんの少しの入力ビットが変化したなら、 いくつかのカラムでは少し多く又は少し少ない入力ビットがオン状態になるが、 アクティブなカラムの集合はあまり大幅に変化しないだろう。 よって似た入力パターン(アクティブなビットの共通部分が非常に多いもの)からは アクティブなカラムの比較的安定した集合に対応付けられる。 コード化がどのくらい安定 ry 、各カラムがどの入力に接続しているかに大きく依存 ry この接続関係は、後述する方法で学習する。 これらのすべてのステップ(入力の部分集合から各カラムへの接続関係を学習し、 各カラムへの入力レベルを決定し、アクティブなカラムの疎な集合をえらぶために抑制 ry ) を空間プーリングと呼ぶ。 ry 空間的に類似(アクティブなビットの共通部分が多い)の パターンがプールされる(それらが共通の表現に互いにグループ化される)ことを意味する。 06166152017/01/03(火) 02:58:43.04ID:igW+0jZp Page 28
2) 以前の入力の文脈に基づいて、入力の表現を作成する リージョンで行われる次の機能は、入力をカラムで表現したものを、 過去からの状態ないし文脈を含む新しい表現に変換 ry 。新しい表現は各カラムの一部のセル、普通は1カラムにつき1つのセルを アクティブにすることで得られる(図 2-2)。
「I ate a pear」と「I have eight pears」31の二つの話し言葉を聞く場合 ry 「ate」と「eight」は ry 発音が同じ ry 同じ反応をするニューロンが脳内のどこか ry また一方、 ry 異なる文脈にあると反応するニューロンが脳内の他のどこか ry 。「ate」という音に対する表現は「I ate」 ry 「I have eight」 ry 異なる ry 。 「I ate a pear」と「I have eight pears」の二つの文を記憶したと想像してみよう。 「I ate…」 ry 「I have eight…」 ry 異なる予測 ry よって ry 異なる内部表現 ry
ある入力を異なる文脈では異なるコード変換をするというこの原理は、 認知とふるまいの普遍的な特徴であり、HTM リージョンの最も重要な機能の一つ ry 06176162017/01/03(火) 03:06:42.48ID:igW+0jZp ry カラムは複数のセルからなっている。 同じカラムのすべてのセルは同じフィード・フォワード入力を受け取る。 ry 。アクティブな各カラムごとに、どのセルをアクティブ ry 選択するかによって、 完全に同じ入力に対して異なる文脈では異なる表現をすることができる。 例 ry 。各カラムは 4 つのセルからなり、各入力は 100 個のアクティブなカラムで表現 ry 。カラムの中で一つのセルだけが一度にアクティブであるとすると、 完全に同じ入力に対して 4100 通り ry 。同じ入力は常に同じ組み合わせの 100 個のカラムがアクティブになるが、 文脈が異なればカラム中の異なるセルがアク ry 非常に大きな数の文脈を表現 ry 、これらの異なる表現はどのくらいユニーク ry ? 4100 個の可能なパターンのうちからランダムに選択した 2 個は、 ほとんどの場合、約 25 個のセルが重複 ry よって同じ入力を異なる文脈で表した 2 つの表現は、 約 25 個のセルが共通で 75 個のセルが異なっており、容易に区別 ry
HTM リージョンの一般的な規則 ry カラムがアクティブ ry 、そのカラム中のすべてのセルを見る。 もしそのカラム中の一つ又はそれ以上のセルが既に予測状態であれば、 それらのセルだけがアクティブになる。もしそのカラム
中のすべてのセルが予測状態でないならば、すべてのセルがアクティブになる。 ry :ある入力パターンが期待されるなら、システムは予測状態のセルだけをアクティブ にすることで期待通りであることを確認する。その入力パターンが期待と違うなら、 システムはカラム中のすべてのセルをアクティブにすることで、 「予期しない入力が発生したのであらゆる解釈が有りうる」ということを表す。
もし以前の状態が何もないなら、従って文脈も予測もないなら、 ry になるときは各カラム内のすべてのセルがアクティブになる。 ry 歌の最初の音を聞いたときと似ている。 文脈がなければ、 ry 予測できない:すべての選択肢が有効である。 以前の状態があるが入力が予期したものと合致しないときは、 アクティブなカラムのすべてのセルがアクティブ ry 。この決定はカラムごとに 行われるので、予測 ry は「オール・オア・ナッシング」32ではない。
図 2-2 カラムの一部のセルをアクティブにすることで、 HTM リージョンは同じ入力の多くの異なる文脈を表現 ry 。カラムは予測状態のセルだけをアクティブにする。 予測状態のセルがないカラムでは、カラム中のすべてのセルをアク ry 。図は、あるカラムでは一つのセルだけがアク ry 、あるカラムではすべてのセルが ry
ry HTM セルは3つの状態を取る。 セルがフィード・フォワード入力によってアク ry 単に「アクティブ」の用語 ry
3) 以前の入力の文脈に基づいて、現在の入力からの予測をするリージョンの ry 予測はステップ 2)で作成した、すべての以前の入力からの文脈を含む表現に基づ ry
リージョンが予測をするときは、将来のフィード・フォワード入力によって アクティブになると考えられるすべてのセルをアクティブ(予測状態)にする。 リージョンの表現は疎であるので、同時に複数の予測がなされ得る。 例えばカラムのうちの 2%が入力によってアクティブになるとすると、 カラムの 20%が予測状態のセルとなることで10 個の異なる予測がなされ得る。 ry 40% ry 20 個 ry 。各カラムが 4 個のセルからなり、一度に一つだけがアクティブ になるとすれば、セル全体の 10%が予測状態 ry
今後、疎分散表現の章が追加されれば、異なる予測が混じり合っても、 リージョンは特定の入力が予測されたのかそうでないのかを高い確信 ry
リージョンはどうやって予測 ry ? 入力パターンが時間と共に変化するとき、 カラムとセルの異なる組み合わせが順次アクティブになる。 あるセルがアクティブになると、周囲のセルのうちすぐ直前にアクティブだったセルの 部分集合への接続を形成する。これらの接続は、そのアプリ ry で必要とされる学習速度 に応じて早く形成されたりゆっくり ry 調整できる。 その後、すべてのセルはこれらの接続を見て、 どのセルが同時にアクティブになるかを探さなくてはならない。 もし接続がアクティブになったら、 セルはそれ自身が間もなくアクティブになることを予測することができ、予測状態に入る。 よってある組み合わせのセルがフィード・フォワード入力によってアクティブになると、 ひき続いて起こると考えられる他の組み合わせのセルが予測状態になる。 ry 歌を聞いていて次の音を予測 ry 瞬間と同様 ry
図 2-3 ry リージョンのいくつかのセルがフィード・フォワード入力によってアク ry (薄い灰色で示した)。他のあるセルは、アクティブなセルからの横方向の入力を 受け取って予測状態になる(濃い灰色で示した)。
まとめると、新しい入力が到着すると、アクティブなカラムの疎な部分集合が選択される。 各カラムの一つ又はそれ以上のセルがアクティブになり、これはまた同じリージョン内 のセル間の接続の学習内容に応じて他のセルを予測状態にする。 リージョン内の接続によってアクティブになったセルは、 ry 予測を表す。 次のフィード・フォワード入力が到着すると、 他のアクティブなカラムの疎な組み合わせが選択される。 新たにアクティブになったカラムが予期したものでないとき、 つまりどのセルも ry 予測しなかったとき、カラム中のすべてのセルをアクティブ ry 。新たにアクティブになったカラムが ry 予測状態のセルを持つなら、 それらのセルだけがアクティブになる。リージョンの出力はリージョン内のすべてのセル のアクティブ状態であり、フィード・フォワード入力によってアクティブになったセルと、 予測状態のためアクティブになったセルとからなる。
既に述べ ry HTM リージョンの予測は将来のいくつかのステップに及ぶことも ry ry メロディの次の音を予測するだけではなく、例えば次の 4 つの音 ry 。 ry 出力(リージョン内のアクティブ状態のセルと予測状態のセルの和集合) は入力よりもゆっくりと変化する。 リージョンがメロディの次の 4 つの音を予測 ry 。メロディを文字 A, B, C, D, E, F, G のシーケンスで表現する。最初の 2 音を聞いた後、リージョン 06246232017/01/11(水) 21:00:08.87ID:Tu17jTh4>>623
はシーケンスを理解し、予測 ry C, D, E, F を予測する。 B のセル33は既にアクティブであるから B, C, D, E, F がそれぞれ 2 つのアクティブな状態のどちらかになる。 ry 次の音 C ry アクティブ状態のセルと予測状態のセルの集合は C, D, E, F, G を表す。 入力パターンは B から C へとまったく違うものに変化したが、20%のセルだけが変化 ry
ry の出力はリージョン内のすべてのセルのアクティブ状態を示すベクトル で表されるので、この例の出力では入力に比べて 5 倍安定 ry 階層構造を上に登るに従って時間的な安定性が増加 ry 表現に文脈を追加して予測を行う 2 つのステップを「時間プーリング」 ry シーケンスに対してゆっくりと変化する出力を生成することで、 時間と共に順に現れる異なるパターンを「プールする」34。 ry 別のレベルで詳細化 ry 空間プーリングと時間プーリングで共通の概念から始 ry
共通概念
空間 ry と時間プーリングの学習は似て ry 、セル間の接続関係、あるいはシナプス の形成を含む。 時間プーリングは同じリージョン内のセル間の接続を学習する。 空間プーリングは入力ビットとカラムとのフィード・フォワード接続を学習する。
二値ウェイト HTM のシナプスは 0 又は 1 ry 。多くの他のニューラルネットワークモデルでは 0 から 1 の範囲で変化するスカラー値のウェイトを用いるのと異な ry
永続値 シナプスは学習を通じて継続的に形成されあるいは切断 ry 、各シナプスに(0.0 から 1.0 の)スカラー値を割り当て、接続がどのくらい永続的 ry 。接続が強化されれば、永続値は増加する。他の状況では、永続値は減少する。 ry しきい値(例えば 0.2)を上回れば、シナプスは形成され ry 下回れば、シナプスは無効 ry
樹状突起セグメント シナプスは樹状突起セグメントに接続される。樹状突起には主要と末梢の 2 種 ry
- 主要樹状突起セグメントはフィード・フォワード入力との間のシナプスを形成する。 ry アクティブなシナプスは線形に加算され、これにより カラムがフィード・フォワード入力によるアクティブ状態になるか否かが決定される。 - 末梢樹状突起セグメントは同じリージョン内のセル間のシナプスを形成する。 各セルはいくつかの末梢樹状突起セグメントを持つ。 ry アクティブなシナプスの合計がしきい値を超えたら、 接続されたセルは予測状態によりアクティブになる。 一つのセルに複数の末梢樹状突起セグメントがあるので、 セルの予測状態はそれぞれをしきい値で判定した結果の論理和 ry 06446432017/02/03(金) 08:50:41.34ID:qVY5ajPD シナプス候補 ry 、樹状突起セグメントはシナプス候補のリストを持つ。 ry 候補は永続値 ry がしきい値を超えたら有効に機能するシナプスとなる。
学習 学習では樹状突起セグメント上のシナプス候補の永続値を増加・減少させる。 ry 用いられる規則は「ヘブの学習規則」35に似ている。 例えば、ある樹状突起セグメントがしきい値以上の入力 を受け取ったためにセルがアクティブに ry シナプスの永続値を修正する。 シナプスがアクティブであり、従ってセルがアクティブになることに貢献した場合、 その永続値を増 ry 。ry がアクティブではなく ry 貢献しなかった場合、その
35 Hebbian learning rules。「細胞 A の軸索が細胞 B を発火させるのに十分近くにあり、 繰り返しあるいは絶え間なくその発火に参加するとき、 いくつかの成長過程あるいは代謝変化が一方あるいは両方の細胞に起こり、 細胞 B を発火させる細胞の 1 つとして細胞 A の効率が増加する。」 06456432017/02/05(日) 14:16:41.40ID:P54mEcWs Page 34
永続値を減 ry 永続値を更新する正確な条件は、空間プーリングと時間プ ry とでは異な ry
空間プーリングの概念
空間プーリングの最も基本的な機能はリージョンへの入力を疎なパターンに変換 ry 。シーケンスを学習して予測 ry 疎分散パターンから始めることが必要 ry 。空間プーリング ry いくつかの到達目標がある。
1) すべてのカラムを使用する HTM リージョンは入力の共通したパターンに対する表現を学習するための 固定数のカラムがある。一つの目的は、全体の ry すべてのカラムが確かに、 ry 学習 ry 。決してアクティブにならないようなカラムは必要でない。そうならないために、 各カラムがその周囲のカラムと相対的にどのくらい頻繁にアクティブになるかを常に監視 ry 頻度が低すぎるときは、そのカラムが勝者となるカラムの集合に含まれ始めるように ry アクティブになる基準をブースト36する。 ry カラムは周囲のカラムと互いに競合しており、入力パターンに対する表現に 加わろうとしている。あるカラムがほとんどアクティブにならないときは ry 積極的に ry 、他のカラムはその入力を変更させられて少しだけ異なる入力パターンを表現し始める。 06466452017/02/05(日) 14:17:14.74ID:P54mEcWs 2) 望ましい密度を維持する リージョンは入力に対する疎な表現を形成する必要がある。 最大の入力を受け取ったカラムは周囲のカラムを抑制する。 抑制範囲を決める半径は、そのカラムの受容野37のサイズに比例する (従ってまた、小さなサイズからリージョン全体に至る範囲を取る)。 抑制半径の範囲内では、多くのアクティブな入力を受け取ったわずかなパーセンテージ のカラムだけを「勝者」とする。その他のカラムは無効化される。 (抑制「半径」の語感は二次元状に配置されたカラムを暗示しているが、 この概念は他のトポロジにも適用できる)
36 boost。後押しする、増強するなどの意。後述のアルゴリズムでブースト値という変数 ry 37 receptive field 06476452017/02/08(水) 02:03:27.72ID:63WsxX0P Page 35
3) 些細なパターンを避ける すべてのカラムが些細ではない入力パターンを表すこと ry は、 カラムがアクティブになる ry 最小のしきい値を設定することで達成 ry 。例えば、しきい値を 50 とすると、カラムがアクティブになるには その樹状突起セグメント上のアクティブなシナプスが 50 個以上必要であり、 ry あるレベル以上に複雑なパターンだけが表現される ry
4) 余分な接続関係を避ける よく注意しないと、あるカラムが巨大な数の有効なシナプスを保持する ry 。すると、あまり関連性のない多くの異なる入力パターンに強く反応するようになる。 シナプスの異なる部分集合は異なるパターンに反応するだろう。 この問題を避けるため、勝者カラムに現在貢献していないシナプスすべて ry 永続値を減 ry 。貢献していないシナプスに確実に十分なペナルティを与えることで、 一つのカラムが表現する入力パターンが限定 ry 06486452017/02/08(水) 02:04:30.13ID:63WsxX0P 5) 自己調整的な受容野 実物の脳は高い可塑性38を示す。 新皮質のリージョンは、様々な変化に反応してまったく異なる事柄の表現を学習できる。 もし新皮質の一部が損傷したら、 ry 他の部分によって表現するように調整される。 もし感覚器官が損傷したり変化したりすると、 それに関連付けられていた部分の新皮質は何か他のことを表現するように調整される。 システムは自己調整的である。我々の HTM リージョンにも同様の柔軟性を求めたい。 あるリージョンに 10,000 個のカラムを割り当てたら、 入力を 10,000 個のカラムで最適に表現する方法を学習するべき ry 入力の統計的性質が変化したら、カラムは ry 最適に表現するように変化するべき ry まとめると、HTM の設計者はリージョンに任意のリソースを割り当てることができて、 そのリージョンは利用可能なカラムと入力の統計的性質に基づいて入力を最適に表現 ry できるべきである。 一般的な規則は、リージョンのカラムがより多くあれば、 各カラムは入力のより大きくより詳細なパターンを表現 ry 。なお一定の粗さを保つが39、カラムは普通、より稀にアクティブになる。
時間プーリングがシーケンスを学習し、予測をすることを思い出して欲しい。 基本的な方法は、あるセルがアクティブになったら直前にアクティブであった他のセルとの 接続を形成することである。これによりセルは、そのセルの接続を調べることで いつそれがアクティブになるかを予測 ry 。すべてのセルがこれを行えば、 全体としてそれらはシーケンスを記憶してそれを思い出し ry 予測できる。 ry シーケンスを記憶するための集中記憶装置はなく、 ry 記憶は各セルに分散配置される。 記憶が分散 ry 、システムはノイズや誤りに強くなる。 ry 、疎分散表現の重要な特徴を 2, 3 述べておく ry
ry あるリージョンが全部で 10,000 個あるセルのうち、常に 200 個のセルがアクティブ になることで表現を形成しているとしよう( ry 2%のセルがアクティブ)。 200 個のアクティブなセルで表される特定のパターンを記憶・理解するには ry 単純な方法は、関心がある 200 個のアクティブなセルのリストを作成 ry 。ちょうど同じ 200 個のセルが再びアクティブになったことが分かれば、 そのパターンを理解したことになる。 しかしながら、 ry 20 個だけのリストを作成して、残りの 180 個を無視したとしたら ry ? ry 200個のセルの異なるパターンにおいてそれら 20 個の部分がちょうどアクティブに なるようなパターンが数多く存在して、間違いだらけに ry はならない。 パターンは大きくかつ疎であるため(ry 10,000 個のうち 200 個のセルがアクティブ)、 20 個のアクティブなセルを記憶することで ry うまく記憶できる。 実際のシステムで間違いが起こる可能性は極めて稀 ry メモリ量を非常に節約 ry 06526512017/02/11(土) 12:03:13.50ID:Xj0b950+ HTM リージョンのセルはこの特徴を利用している。各セルの樹状突起セグメントは 同じセル内の他のセルへの接続関係の集合を持つ。樹状突起セグメントは ある時点でのネットワークの状態を理解する ry ため、これらの接続を形成している。 周囲のアクティブなセルは数百から数千あるかも知れないが、 ry が接続しなければならないのはこのうちの 15 から 20 程度に過ぎない。 ry 15 個のセルがアクティブと分かれば、その大きなパターンが発生 ry ほぼ確信できる。 このテクニックを「サブサンプリング」と呼び、HTM アルゴリズム全体を通じて利用している。
各セルは多くの異なる分散パターンに関与し、また多くの異なるシーケンスに関与 ry 。ある特定のセルは数十から数百の時間的遷移に関与しているかも ry 。従って各セルは一つではなく、いくつかの樹状突起セグメントを持つ。 ry セルが理解したいアクティビティの各パターンごとに一つの樹状突起セグメントを持つこ 06536612017/02/12(日) 14:29:02.49ID:BZYpOz1d Page 38
とが望ましい。しかし ry 樹状突起セグメントはいくつかの完全に異なるパターンに関して 接続を学習することができ、それでもうまく行く。 例えば、一つのセグメントが 4 つの異なるパターンのそれぞれについて 20 ry 都合 80 個 の接続を持つとする。そして、これらの接続のうち任意の 15 個がアクティブ なときに樹状突起セグメントがアクティブとなるようにしきい値を設定する。 これにより誤りが発生する可能性が生じる。 異なるパターンが混在することで、 ry 15 個のしきい値に到達する可能性がある。 しかしながら、表現の疎な性質により、このような誤りは非常に起こりにくい。
フィード・フォワードによってアクティブになったセルだけを処理するのは リージョンの内部だけであって、それ以外では予測はさらなる予測を引き起こす ry 。しかし(フィード・フォワードと予測の)すべてのアクティブなセルは リージョンの出力となり、階層構造の次のリージョンへと引き継がれる。 06576562017/02/15(水) 22:27:09.36ID:4UMkv2wE 一次と可変長42のシーケンスと予測
ry
一つのカラムに対するセルの数を増 ry 減 ry の効果 ry ? 特に、1カラムに1つのセルしかないとき ry ?
以前用いた例では、カラム当たり4セルのアクティブなカラムが 100 個の場合、 入力の表現は 4100 通りの異なるコード化が可能 ry 。従って、同じ入力が様々な文脈の中で出現しても混乱しない ry 。例えば、もし入力パターンが単語を表すなら、リージョンは 同じ単語が何度も使われる多くの文章を混乱することなく
41 原文は“inactive to active”となっているが、web 上の forum で “predictive state to active state”の間違いだったとの訂正があった。 (2010/12/14 Sabutai: title “Cortical Algorithms document: praise and suggestions”) 42 “first order” と “variable order”。前者は一つだけの長さのシーケンスと予測、 後者は任意の長さのシーケンスと予測。 0658オーバーテクナナシー2017/02/16(木) 09:52:28.99ID:n4SoUyRChttps://youtu.be/2q-vGObpa4M0659オーバーテクナナシー2017/02/17(金) 08:25:58.71ID:C7chZT7r 関連スレ
カラム当たり 5 セルに増やすと、 ry 可能なコード化の数は 5100 に増加し、4100 よりずっと大きくなる。 しかし、 ry 多くの現実的な問題においてこの容量の増加はあまり役に立たない ry
しかしながら、 ry 少なくすると、大きな違いが生まれる。
もしカラム当たり1セルまでになると、文脈の中で表現する能力を失 ry リージョンへの入力は、以前の活動に関係なく常に同じ予測を引き起 ry 。カラム当たり1セルの場合、HTM リージョンの記憶は一次記憶となり、 予測は現在の入力だけに基づ ry
一次予測は脳が解くことのできるある種の問題 ―静的空間推論― に理想的である。 ry 目が後を追うには短かすぎる時間であっても ry 聞く ry 理解するには常にパターンのシーケンスを聞く必要がある。 視覚も普通はそれに似ていて、視覚的イメージの流れを処理する必要がある。 しかしある条件下では、一瞬 ry 06616602017/02/17(金) 13:49:24.30ID:pF3vP0RD 時間的理解と静的理解とでは、異なる推論メカニズム ry 一方は可変長の文脈に基づいてパターンのシーケンスを理解し、予測をする必要がある。 他方は時間的文脈を使わずに静的な空間的パターンを理解する必要がある。 カラム当たり複数のセルを持つ HTM リージョンは時間に基づくシーケンスを理解 するのに理想的であり、カラム当たり1セルの HTM リージョンは空間的パターンを理解 するのに理想的である。 Numenta では、カラム当たり1セルのリージョンを視覚問題に適用した実験を数多く実施 ry 重要な概念だけ述べる。
もしリージョンへの入力画像が、垂直な線が右に移動するものだったら ry ? カラム当たり1セルしかなかったら、線が次に左又は右に現れること43を予測できる ry 。線が過去にどこにあったか知っているという文脈を使うことができないため ry 移動していることを知ることはできない。 このようなカラム当たり1セルのものは、新皮質の「複雑型細胞」44のように振舞う ry 。そのようなセルの予測出力は、 ry 動いていようがいまいが 異なる位置にある視覚的な線に対してアクティブになるだろう。 このようなリージョンは異なるイメージを区別する能力を保持する一方で、 平行移動や大きさの変化に対して安定 ry 。このような振る舞いは、空間的不変性(同じパターンの異なる見方 ry ) ry
もし同じ実験をカラム当たり複数のセルを持つ HTM リージョンに対して行えば、 そのセルが新皮質の「方位選択性複雑型細胞」45のように振舞う ry 。セルの予測出力は左に移動する線や右 ry 線に対してアク ry になるが、両方に対しては ry 06666652017/02/19(日) 00:41:39.93ID:Iy/nas+o これらをまとめ ry 仮説 ry 新皮質は一次と可変長の両方の推論及び予測 ry 。新皮質の各リージョンには 4 又は 5 層のセルがある。 ry それらはすべてカラム単位で応答する性質 ry 水平方向に大きな接続性 ry 。新皮質のセルの層は ry HTM の推論と学習に似たことを実行しているのではないか ry 。異なる層のセルは異なる役割 ry 。例えば解剖学によれば 第 6 層は階層構造のフィードバックを形成し、第 5 層は運動の動作に関わっている。 。異なる層のセルは異なる役割 ry 解剖学 ry 6 層は階層構造のフィードバックを形成し、第 5 層は運動の動作 ry 。セルの 2 つの主要なフィード・フォワード層は第 4 層と第 3 層である。 ry 4 層のセルが独立に、即ちカラムの中で1セルだけが動作するのに対して、 第 3 層のセルはカラムの中で複数のセルが動作 ry 。よってセンサ入力に近い新皮質のリージョンは一次記憶と可変長記憶の両方を持つ。 一次シーケンス記憶(だいたい第4層のニューロンに対応する)は空間的に不変の表現 ry 。可変長シーケンス記憶(だいだい第 3 ry )は動画像の推論と予測に役立つ。
まとめ ry 章で述べたようなアルゴリズムは新皮質のニューロンのすべての層 ry 仮説 ry 。新皮質の層の詳細は大きく違っていて、 フィード・フォワードとフィードバック、注意46、運動動作47に関する異なる役割を演じ
43 「移動する」ことは予測できないが、隣の位置に「出現する」ことは予測 ry 44 complex cell 45 directionally-tuned complex cell 46 attention 47 motor behavior 06676652017/02/20(月) 00:16:09.76ID:PjnuggmX Page 42
ry 一次(カラム当たり1セル)の HTM リージョンを画像認識問題に適用する実験 ry 可変長(カラム当たり複数セル)の ry に可変長のシーケンスを理解・予測させる実験 ry 。将来 ry 一つのリージョンに混在させ、他の目的にもアルゴリズムを拡張 ry しかしながら、一つの層と等価なカラム当たり複数セルの構造が、 単体であれ複数階層であれ、多くの興味深い問題を取り扱いうる ry 0668オーバーテクナナシー2017/02/22(水) 14:16:16.71ID:NK3va3H8 35:54 ↓ 10:40 https://www.youtube.com/watch?v=WTdY7h129Mk
ry プーリング関数48の最初の実装の疑似コード ry 。このコードの入力は、センサー・データ又は前のレベルからのバイナリ配列である。 このコードは activeColumns(t) を計算する。activeColumns(t) は 時刻 t において、フィード・フォワード入力に対して選択されたカラムのリスト ry 時間プーリング関数の入力 ry activeColumns(t) は空間プーリング関数の出力 ry 06706692017/02/26(日) 02:07:54.96ID:vIzrnxYS 疑似コードは3つのフェーズ ry 順に実行 ry
ry 1: 各カラムについて、現在の入力のオーバラップを計算する。 ry 2: 抑制の後に勝者となったカラムを計算する。 ry 3: シナプスの永続値と内部変数を更新する。
以下、3つのフェーズのそれぞれについて疑似コードを示す。 ry データ構造や補助関数は本章の最後に示す。
初期化 最初の入力を受け取る前に、各カラムの最初のシナプス候補のリストを計算して リージョンを初期化する。 これは入力配列の中からランダムに選択された入力位置のリストで構成される。 各入力はシナプスで表現され、ランダムな永続値が割り当てられる。 ry 永続値は二つの条件を満たす ry 。第一に、その値は connectedPerm (シナプスが「接続している」と判定される最小の永続値)の前後の狭い範囲 ry 。これにより、訓練を少ない回数繰り返しただけで、 ry 接続(ないし切断) ry 。第二に、各カラムは入力リージョン上で自然な中心位置があり、 永続値 ry バイアス ry 。(中心付近ではより高い値 ry )
48 spatial pooler function 49 online。推論の計算と学習の計算を分離せずに、同時 ry 06716692017/02/26(日) 17:47:14.84ID:vIzrnxYS Page 44
フェーズ 1: オーバラップ ry 与えられた入力ベクトルについて、そのベクトルと各カラムのオーバラップを計算する。 ry オーバラップは、アクティブな入力と接続されたシナプスの数 ry にブースト値を掛け ry 。もしこの値がminOverlap を下回 ry 0 ry
1. for c in columns 2. 3. overlap(c) = 0 4. for s in connectedSynapses(c) 5. overlap(c) = overlap(c) + input(t, s.sourceInput) 6. 7. if overlap(c) < minOverlap then 8. overlap(c) = 0 9. else 10. overlap(c) = overlap(c) * boost(c) 06726712017/02/26(日) 17:49:20.84ID:vIzrnxYS フェーズ 2: 抑制 ry 抑制の後に勝者となったカラムを計算する。 desiredLocalActivity は勝者となるカラムの数を制御するパラメータである。 例えば、 desiredLocalActivity を 10 ry 抑制半径 ry においてカラムのオーバラップ値が高い順に 10 位以内のカラムが勝者 ry
11. for c in columns 12. 13. minLocalActivity = kthScore(neighbors(c), desiredLocalActivity) 14. 15. if overlap(c) > 0 and overlap(c) minLocalActivity then 16. activeColumns(t).append(c) 17.
フェーズ 3: 学習 ry 学習を実行 ry シナプスの永続値は必要に応じて更新され、 ブースト値と抑制半径を更新する。 06736712017/02/27(月) 23:47:53.65ID:2got1qbV Page 45
主要な学習規則は 20-26 行 ry 。勝者となったカラムのそれぞれについて、 もしあるシナプスがアクティブであればその永続値をインクリンメントし、 その他の場合はデクリメントする。永続値は 0 から 1 の範囲 ry
>205 >135 : YAMAGUTIseisei 20161009 >繰返しになるが既にできている ( 自分だけの問題でないので全てを詳らかにできないが自分の師匠がとうの昔に簡易 06876202017/04/09(日) 08:19:51.34ID:XXlcdpGX>>630 #60#62-64 >パルス ry 頻度が重要 ry よってセルの出力はスカラー値と見 ry 学習はシナプスのウェイトを調整 ry 非線形 ry このタイプの人工ニューロン ry 有益 ry しかし ry 複雑さを捉えておらず ry もっと精巧 ry 必要 >68 spike ry 尖った波形
>樹状突起セグメントは、以前 ry 同時にアクティブ ry セルへの接続 ry で ry 記憶する。そのセグメントは、以前にフィード・フォワード入力によってアクティブ ry を記憶