フェーズ 2 ry 各セルの予測状態を計算する。セルのどれかのセグメントがアクティブになると、 そのセルの predictiveState がオンになる。 即ち、十分な数の横方向の接続先が、フィード・フォワード入力によって現在アクティブ であればオンになる。この場合、そのセルは以下の変更を待ち行列に加える: a) 現在アクティブなセグメントを強化56する(47-48 行目)、 b) このアクティベーション57を予測し得たセグメント (即ち、前回の時刻ステップでアクティビティに(弱いかも ry )マッチしたセグメント) を強化する(50-53 行目)。
42. for c, i in cells 43. for s in segments(c, i) 44. if segmentActive(s, t, activeState) then 45. predictiveState(c, i, t) = 1 46. 47. activeUpdate = getSegmentActiveSynapses(c, i, s, t, false) 48. segmentUpdateList.add(activeUpdate) 49. 50. predSegment = getBestMatchingSegment(c, i, t-1) 51. predUpdate = getSegmentActiveSynapses( 52. c, i, predSegment, t-1, true) 53. segmentUpdateList.add(predUpdate) 000762017/04/09(日) 09:27:16.04ID:XXlcdpGX フェーズ 3 ry 実際に学習を実施する。 待ち行列に追加されたセグメントの更新は、フィード・フォワード入力を得てセルが 学習セルとして選択されたときに実施される(55-57 行目)。 そうではなく、もしセルが何らかの理由で予測を停止した場合、 そのセグメントをネガティブ58に強化する(58-60 行目)。
54. for c, i in cells 55. if learnState(s, i, t) == 1 then 56. adaptSegments (segmentUpdateList(c, i), true) 57. segmentUpdateList(c, i).delete() 58. else if predictiveState(c, i, t) == 0 and predictiveState(c, i, t-1)==1 then 59. adaptSegments (segmentUpdateList(c, i), false) 60. segmentUpdateList(c, i).delete() 61. 0012112017/04/16(日) 11:29:05.95ID:kNc73pc9 実装の詳細と用語説明
ry 。各セルは二つの数値でアクセスする。カラムの添字 c と、セルの添字 i である。 セルは樹状突起セグメントのリストを保持する。各セグメントはシナプスのリストと、 各シナプスごとに永続値を保持する。 ry 変更は、セルが フィード・フォワード入力によってアクティブになるまでは一時的とマークされ ry segmentUpdateList によって保持される。 各セグメントはまた、論理値のフラグsequenceSegment を保持する。 これはそのセグメントが次の時刻ステップにおけるフィード・フォワード入力 を予測するかどうかを示している。
シナプス候補の実装は空間プーリングの実装とは異なっている。 空間プーリングでは、シナプス候補の完全なリストが明示的に示される。 時間プーリングでは各セグメントが固有のシナプス候補の(ときには大きな)リスト を保持することができる。実際には各セグメントごとに大きなリスト ry は、計算量 ry メモリ消費 ry 。そこで ry 時間プーリングでは学習の際に各セグメントごとに アクティブなシナプスをランダムに追加する(newSynapseCount パラメータで制御する)。 ry 候補のリスト ry と同様の効果があり、しかも新たな時間的パターンを学習でき ry リストはずっと小さくなる。
上の画像は左側が生体ニューロンの写真、中央が単純な人工ニューロン、 右側がHTM のニューロンあるいはセル ry 。この付録の目的 ry 比 ry
実物のニューロンは途方もなく複雑で変化に富んでいる。 ここではその最も普遍的な原理に注目し、また我々のモデルに関わる部分に限定する。 ry 、HTM 大脳皮質性学習アルゴリズムで用いられているセルは 多くのニューラルネットワークで用いられている人工ニューロンよりも はるかに現実に即している。 ry
生体ニューロン
ニューロンは脳内で情報を伝えるセル59である。上記左の画像は標準的な興奮性の ニューロンである。 ry 外見の大部分は枝分かれした樹状突起で占められている。 ry すべての興奮性の入力は、樹状突起に沿って配置されたシナプスを経由 ry 。近年、ニューロンに関する知識 ry 最大の発見は、 ニューロンの樹状突起が入力を細胞体60に繋ぐ単なる導線ではないと分かったことで
59 cell ry 「セル」と訳したが、生物の細胞を意味する。 60 cell body。ニューロン中央の膨らんだ部分。 0030オーバーテクナナシー2017/05/25(木) 00:58:13.18ID:mAFRIC2Q HTM学習による人工知能は人間が工学的に知る能力になると思いますか?
主要樹状突起62 細胞体に最も近い ry 枝は主要樹状突起 ry 図 ry いくつかを緑色の線 ry
ry 突起上の複数のアクティブなシナプスは、細胞体に対して概ね線形の加算 ry 。5 つのアクティブなシナプスは 1 つのアク ry 概ね 5 倍の脱分極63を細胞体に ry 引き起 ry 。対照的に、ある一つのシナプスが後続の素早い活動電位64によって繰り返しアクティブ になったとしても、2 番目、3 番目と続く活動電位による細胞体への影響は、 最初のものよりずっと小 ry
新皮質のリージョンへのフィード・フォワード接続は主要樹状突起に優先的に接続 ry 。これは少なくとも、各リージョンの ry 主要な入力層である第 4 層のニューロンについて ry 0032312017/06/04(日) 12:41:55.82ID:Izq+v2N1 末梢樹状突起65 細胞体から遠く ry 枝は末梢樹状突起 ry 図 ry いくつかを青色の線 ry
末梢樹状突起は主要樹状突起よりも細い。これらは樹状突起の木の中の他の樹状突起の枝に 接続されていて、細胞体に直接接続されていない。これらの違いにより末梢樹状突起は ユニークな電気・化学特性を持っている。 末梢樹状突起で一つのシナプスがアクティブになっても、細胞体に対して最小限の影響しか ry 。シナプスで局所的に発生した脱分極は、それが細胞体に届くときには弱くなっている。 このことは長年のなぞであった。 ニューロンのシナプスの大多数を占める末梢のシナプスはあまり多くのことを ry
今では末梢樹状突起の各断片が半独立の処理領域として働くことが分かっている。 もしその樹状突起の短い区間内で十分な数のシナプスが同時にアクティブになると、 樹状突起のパルスを生成することができ、 それは細胞体にまで届いて大きな影響を及ぼすことができる。 例えば 40μm 間隔の 20 個のアクティブなシナプスは樹状突起のパルスを生成 ry
従って、末梢樹状突起は域内同時発生事象の検出器 ry
末梢樹状突起上のシナプスは、圧倒的にそのリージョン内の付近の他のセルから形成 ry
画像では上方向に伸びる大きな樹状突起の枝 ry 先端樹状突起66 ry 。ある理論 ry 、この構造によりニューロンは付近にいくつかの末梢樹状突起を形成し、 この付近を通る軸索により容易に接続 ry 。 この解釈によれば、先端樹状突起はセルの延長として働く ry 0036352017/06/11(日) 13:06:46.13ID:ovKJ8hHX シナプス 標準的なニューロンには数千個のシナプスがある。これらの大多数(多分 90%)は 末梢樹状突起にあり、残りは主要樹状突起にあると思われる。
長年に渡って、学習はシナプスの影響度ないし「重み」を強くしたり弱くしたり することを含む ry 。このような影響は観測されるものの、各シナプスはどこか確率的な様子である。 アクティブになったとき、それが神経伝達物質67を放出することに信頼性がない。 よって脳が ry 各シナプスの重みの精度や忠実度に依存しているはずがない。
さらに今では、シナプス全体が素早く形成されたり切断 ry 。この柔軟性は学習の強力な表現形式であり、素早く知識を獲得 ry 。シナプスは軸索と樹状突起がある距離の範囲内にあるときにだけ形成されうることから、 シナプス「候補」の概念 ry 、学習は主にシナプス候補から有効なシナプスが形成 ry
ry 出力は常にパルスであるが、この解釈には異なる見方ができる。 有力 ry (特に新皮質に関しては)、パルスの発生頻度が重要というもの ry 。よってセルの出力はスカラー値と見なすことができる。
いくつかのニューロンは数個の連続したパルスを短時間に素早く出力する「バースト」反応 を示すことも ry
ry 上記 ry HTM セルの特徴に関連する属性に注目して述べ ry 詳細は無視 ry ここで述べたすべての特徴が幅広く受け入れられているとは必ずしも言えない。 ry 、我々のモデルにとって必要 ry
単純な人工ニューロン
この付録の最初に示した中央の図は、多くの古典的な ry に模した構成要素 ry これらの人工ニューロンはシナプスの集合を持ち、各シナプスはウェイトを持っている。 各シナプスはスカラー値のアクティブ化を受け取り、それにシナプスのウェイトが掛け合 ry 。すべてのシナプスの出力は非線形の方法で足し合わされ、人工ニューロンの出力となる。 学習はシナプスのウェイトを調整 ry 恐らく非線形の関数 ry 。このタイプの人工ニューロン、そしてそのバリエーションは、 コンピュータ ry アプリケーションにおいて有益 ry しかし ry 多くの複雑さを捉えておらず ry 能力を活用していない。 ry もっと精巧なニューロンモデルが必要 ry
我々は、カラム内のすべてのセルが同じフィード・フォワード応答を持つよう求めている。 実物のニューロンではこれは恐らく抑制タイプのセルによって行われる。 HTMでは我々は単にカラム中のすべてのセルが単一の主要樹状突起を共有するように強制 ry
隣のセルとの競合に決して勝つことができない ry 避けるため、 ry 隣と比較して十分に勝利していないときには、そのフィード・フォワード入力 によるアクティブ化をブーストする。よってセル間には常に競合 ry 我々はこれをセル間ではなくカラム間の競合として HTM でモデル化 ry 図では示されていない。
ry 候補 ry 生物学 ry シナプスを形成するのに十分に近くにある軸索と樹状突起 ry 拡張して、HTM セルで接続する可能性のある、より大きな集合を意味する ry 。生体ニューロンの樹状突起と軸索は学習によって成長したり縮退 ry よってシナプス候補の集合は成長に伴って変化する。 HTM セルのシナプス候補の集合を大きめにすることで、我々は概ね、 軸索や樹状突起の成長と同じ結果を得た。 シナプス候補の集合は図示されていない。 0047462017/07/02(日) 21:30:48.70ID:ZKt2tQ+I カラム間の競合、シナプス候補の集合による学習、 ry カラムのブースト の組み合わせにより、HTM ry ンは脳に見られるのと同様の強力な可塑性を得た。 HTM リージョンは入力の変化に応じて各カラムが何を表す 0048オーバーテクナナシー2017/07/02(日) 21:31:29.71ID:7PyqZMnO>>1 マジ? http://raou.jp/ ラ王への道 toritatenin 岩間好一 aiueo700 監視カメラ 110番 ウィルス 公明党 ラ王への道 江南署 集団ストーカー クレーマー 悪質 卒論コピペ ランサムウェア ラ王への道 クレーム 馬鹿舌 味音痴 味覚障害 嫌われ者 ワンクリック詐欺 共産党 ラ王への道 長谷川亮太 チンフェ ちばけんま クズ けん まくん 創価学会 ラ王への道 森園祐一 生活保護 ドールオタビッコマン 涼子P ナマポ 苦情 ラ王への道 岡尚大 色盲絵師 三村侑意 アフィリエイト ヘーボ 広告 マルウェア 0049452017/07/09(日) 16:24:13.89ID:W3GgFRR8 強い AI ( AL ) ( を越えます物 ) の応募は人類の喫緊の命運を左右もご承知の通り その上で昨年度は審査員様ご一任状況にしてご関知なさらず ? 0050yamaguti~貸2017/07/09(日) 16:26:03.45ID:W3GgFRR8 Page 62
のかを(主要樹状突起上のシナプスの変更によって)自動的に調整し、 カラム数の増加ないし減少を自動的に調整 ry
末梢樹状突起 各 HTM セルは末梢樹状突起セグメントのリストを管理している。 各セグメントはしきい値検出器として働く。 ry アクティブなシナプス(冒頭の図で青い点で示した)の数がしきい値を超えると、 そのセグメントはアクティブになり、それに接続されたセルが予測状態になる。 セルの予測状態はアクティブなセグメントの OR ry
樹状突起セグメントは、以前のある時点で互いに同時にアクティブになった複数のセル への接続を形成することでリージョンの状態を記憶する。そのセグメントは、 以前にフィード・フォワード入力によってアクティブになったセルの状態を記憶する。 よってそのセグメントはセルがアクティブになることを予測する状態を探す。 樹状突起セグメントの標準的なしきい値は 15 である。 ry 有効なシナプスが 15 個同時にアクティブになると、その樹状突起はアクティブになる。 数百から数千個の周囲のセルがアクティブになるかも知れないが、 15 個の接続だけで十分により大きなパターンを理解 ry
各末梢樹状突起セグメントはそれに関連付けられたシナプス候補の集合を持つ。 そのシナプス候補の集合はリージョン内のすべてのセルの部分集合である。 そのセグメントが学習 ry 、それらすべてのシナプス候補の永続値を増加ないし減少 ry 。しきい値を超えたシナプス候補だけが有効 ry 0051502017/07/09(日) 16:27:05.61ID:W3GgFRR8 ある実装では、我々はセルあたり固定の数の樹状突起セグメントを用いた。 他のある実装では、訓練を通じてセグメントを追加ないし削除するようにした。 ry 。セルあたりの樹状突起セグメントの数を固定にすると、 同じセグメントに対していくつかの異なるシナプスの集合を保存することができる。 例えば、セグメント上に 20 個の有効なシナプスがあり、しきい値が 15 とする。 (一般に ry ノイズへの耐性 ry しきい値をシナプスの数よりも少 ry ) これでそのセグメントは周囲のセルの特定の一つの状態を理解できるようになる。 もし周囲のセルのまったく異なる状態を表現する、20 個の他のシナプスを その同じセグメントに追加 ry するとそのセグメントは、 あるパターンの 8 個のアクティブなシナプスと他のパターンの 7 個のアクティブなシナプスを 持つことで間違ってアクティブになるかも知れないので、エラーが起こる可能性 ry 。我々は実験的に、20 個の異なるパターンまでならエラーなしで一つのセグメントに保存 ry 従って十数個の樹状突起セグメントを持つ HTM セルは多くの異なる予測に関与 ry 0052yamaguti~貸2017/07/16(日) 17:38:53.91ID:Nam9FajQ Page 63
シナプス HTM セルのシナプスは二値の重みを持つ。ry 重みをスカラー値にすることを妨げるものは何もないが、 疎分散パターンを用い ry 今のところスカラー値の重みを使う必要性がない。
しかし ry セルは「永続値」というスカラー値を ry 学習を通じて調整する。 永続値 0.0 は有効でないシナプス候補を表し、 ry しきい値(標準的には 0.2) を超える永続値は接続したばかりで容易に切断するシナプスを表す。 高い永続値、例えば 0.9 は、接続状態でしかも容易には切断しない ry
HTM セルの主要樹状突起セグメントや末梢樹状 ry にある有効なシナプス の数は固定ではない。それはセルがパターンに触れるに従って変化する。 例えば、末梢樹状突起の有効なシナプスの数はデータの時間的構造に依存する。 リージョンへの入力に時間的に永続的なパターンが何もないときは、 末梢セグメントのすべてのシナプスは低い永続値を持ち、 わずかな数のシナプスだけが有効になるだろう。 入力列にたくさんの時間的構造があるときは、高い永続値を持つ有効なシナプスが多数 ry 0053522017/07/16(日) 17:39:43.49ID:Nam9FajQ セル出力 HTM セルは 2 つの異なる二値出力を持つ: 1) セルがフィード・フォワード入力によって (主要樹状突起経由で)アクティブである、2) セルが横方向の接続により (末梢樹状突起経由で)アク ry 。前者を「アクティブ状態」と呼び、後者を「予測状態」 ry
フィード・フォワードによるアクティブ状態だけがリージョン内の他のセルに接続され、 これにより予測は常に現在の入力(及び文脈)に基づいて行われる。 予測に基づいて予測が行われることは望ましくない。 ry そうなると、数回処理を繰り返しただけでリージョン内のほとんどすべてのセルが予測状態 ry
リージョンの出力はすべてのセルの状態を表すベクトルである。 もし階層構造の次のリージョンがあるなら、このベクトルがその入力となる。 この出力はアクティブ状態と予測状態の OR である。 アクティブ状態と予測状態を結合する ry 出力は入力よりも安定する(ゆっくりと変化する)。 このような安定性はリージョンの推論における重要な特性である。 0054492017/07/23(日) 08:30:42.83ID:0TlGOkHFhttp://rio2016.2ch.net/test/read.cgi/future/1449403261/970055yamaguti~貸2017/07/23(日) 08:31:44.51ID:0TlGOkHF Page 64
参考文献
ry 。ニューロサイエンス ry 膨大で、全般的知識を得るには多くの異なる文献 ry 。新しい発見は学術ジャーナル ry 、読み解くのが難しく大学関係者でない限り ry
この付録で ry 2 冊 ry
Stuart, Greg, Spruston, Nelson, Hausser, Michael, Dendrites, second edition (New York: Oxford University Press, 2008)
この本は樹状突起に関するあらゆる ry 16 章では HTM 大脳皮質性学習アルゴリズムが用いている樹状突起セグメントの 非線形な性質 ry この章は、この分野で数多くの考察をした Bartlett Mel によって書 ry
Mountcastle, Vernon B. Perceptual Neuroscience: The Cerebral Cortex (Cambridge, Mass.: Harvard University Press, 1998)
この本は新皮質に関するあらゆることに関する良い入門 ry 細胞の種類とその接続関係 ry 樹状突起の性質 ry 得るには古 ry 、読者は皮質性ニューロンに関するすぐれた見識 ry 0056yamaguti~貸2017/07/30(日) 10:26:53.69ID:4w4cNgfm Page 65
付録 B: 新皮質の層と HTM リージョンの比較
ここでは HTM リージョンと生体新皮質のリージョンの間の関係 ry
特に、HTM 大脳皮質性学習アルゴリズム、 及びそのカラムとセルが、新皮質の層やカラム構造とどのような関係 ry 。新皮質の「層」の概念やそれが HTM の層とどう関係 ry 、多くの人が困惑 ry 。本稿がこの混乱を解決し、また HTM 大脳皮質性学習アルゴリズムの生物学的基礎 ry
新皮質の神経回路網
人の新皮質は面積約 1,000cm2、厚さ 2mm のニューロンの皮である。 ry 食事に使うナプキンの布 ry 、新皮質の面積と厚さのちょうど良い近似 ry 。新皮質は十数種類の機能的なリージョン ry 、そのいくつかは視覚に関係し、あるいは聴覚、言語などに ry 。顕微鏡で見ると、異なるリージョンの物理的な特徴は驚くほど良く似ている。
に 2 つに枝分かれする。枝の一つは主に水平に伸び、他の枝は主に垂直 ry 。水平の方の枝は同じ層や近くの層の他のセルと多数の接続 ry 。 ry 新皮質の断片 ry 。多くの軸索がこの画像で示された部分から出たり入ったりしているので、 軸索は画像に見られるものよりも長い。 新皮質の 1mm の立方体に含まれる軸索や樹状突起の総延長は 2km から 4km ry
画像の中央部はニューロンの本体だけを示す染色法で、樹状突起や軸索は見えない。 ニューロンの大きさや密度が層によって変化する様子 ry 。この画像ではカラムは少ししか分からない。第 1 層にいくつかのニューロン ry の数はあまりに少ないので、この層はやはりセルのない層 ry 。ニューロ科学者は新皮質の 1mm の立方体ごとに約100,000 個程度のニューロン ry
画像の左側はほんのわずかな数のニューロンの本体、軸索、樹状突起だけを示す染色法 ry 。異なる層や異なるセルごとに、樹状突起の「主軸」の大きさは異なっている様子 ry 。いくつかの「先端樹状突起」72 ry は細胞体からそびえ立ち、他の層と接続 ry 。先端樹状突起が存在するか否か、及びその接続先は各層ごとに特徴 ry
まとめると、新皮質の層とカラム構造73は ry 染色され顕微鏡で観察 ry 明らか ry 0061602017/09/10(日) 18:08:33.13ID:vLQGrlPG リージョンの違いによる層のバリエーション 新皮質のリージョンの違いによって層の厚さにバリエ ry 、層の数についても多少違う。 このバリエーションはどの動物を研究するかに依存し、 どのリージョンを観察するかにも依存し、また観察した人によっても違う。 例えば上記の画像では、第 2 層と第 3 層は容易に識別できるが一般的にはそうではない。 いくつかの科学者 ry この 2 つの層を識別できないと報告 ry まとめて「第 2/3 層」 ry 。他の科学者は逆の方向に向かい、例えば 3A と 3B のようなサブレイヤを定義 ry
科学者が針を使って、何がニューロンをアクティブにするのかを見てみると、 異なる層を横断する垂直方向に揃った複数のニューロンがだいたい同じ入力に反応 ry
この図は、網膜からの情報を処理する最初の皮質性リージョンである V1 の、 セルのいくつかの応答特性 ry
最初の発見の一つは、V1 のほとんどのセルは 網膜の特定の領域で、異なる角度の線や縁に反応 ry 。カラム状に垂直に配列された複数のセルすべてが、同じ角度の縁に反応する。 図を注意深く見れば、各区画の最上部に異なる角度の小さな線が描かれている ry 。これらの線はその場所のセルがどの角度の線に反応するかを示している。 垂直に配列された複数のセル(うすい垂直の縞模様の一つに含まれる)は 同じ角度の線に反応する。
新皮質の一般的な規則は、角度と眼球優位性のようにいくつかの異なる応答特性が 互いに重ね合わさっているということである。皮質の表面を水平に移動してゆくに従って、 セルから出力される応答特性の組み合わせは変化する。 しかしながら、垂直に配列されたニューロンは同じ応答特性の組み合わせを共有している。 聴覚・視覚・体性感覚野についてはこのような垂直の配列になっている。 新皮質のあらゆる場所でそう ry 、全部ではなく多くの部分について言うならそれは正しい ry
ミニカラム 新皮質の最小のカラム構造はミニカラムである。ミニカラムは直径約 30μm で、 セルを持つ 5 つの層全体に及ぶ 80-100 個のニューロンが含まれている。 新皮質全体はミニカラムから構成されている。小さなスパゲッティのかけらを端同士を 積み重ねたものを思い浮かべるとよい。ミニカラムの間には セルが少ししかないわずかなすきま ry 、染色された画像でそれを見 ry
抑制ニューロンがミニカラムを定義する本質的な役割を果たしている。 ry 画像や図に示されていないが、抑制ニューロンはミニカラムの間のまっすぐな線に沿って 軸索を送っており、ミニカラムの一部を物理的に分離している。抑制ニューロンはまた、 ミニカラム中のニューロンが同じ入力に反応するよう強制することに役立っていると ry
ミニカラムは HTM 大脳皮質性学習アルゴリズムで用いられているカラムの原型である。
カラム反応の例外 カラム反応の例外が一つあって、それは HTM 大脳皮質性学習アルゴリズムにも関係する。 科学者は通常、実験動物に単純な刺激を与えることでセルが何に反応するのかを発見する。 例えば、動物の視覚空間の小さな部分に 1 つの線を見せて、V1 のセルの応答特性を調べ ry 。単純な入力を用いると、科学者はセルが常に同じ入力に反応することを発見するかも ry 。しかしながら、もしその単純な入力が自然な場面の動画像に組み込まれたなら、 セルはもっと選択的になる。あるセルが高い信頼性で独立した垂線に反応するとしても、 その垂線が自然な場面の複雑な動画像に組み込まれた場合は必ずしも反応するとは ry 0065642017/09/10(日) 21:12:20.16ID:vLQGrlPG HTM 大脳皮質性学習アルゴリズムでは カラム中のすべての HTM セルが同じフィード・フォワード応答特性を共有しているが、 時間的なシーケンスを学習すると HTM カラムの 1 つのセルだけがアクティブになる。 このメカニズムは可変長シーケンスを表現する手段であり、 ニューロンについて先ほど説明した特徴と似ている。 文脈を伴わない単純な入力はカラム中のすべてのセルをアクティブにする。 同じ入力でも、学習したシーケンスに含まれるときは 1 つのセルだけがアクティブになる。 ミニカラム中で一度に 1 つのニューロンだけがアクティブになると提唱しているわけではない。 HTM ry 、予期しない入力に対してはカラム中のある層のすべてのニューロンがアクティブ ry 、予期した入力に対してはその一部のニューロンがアクティブ ry 0066yamaguti~貸2017/09/10(日) 21:48:56.38ID:vLQGrlPG Page 71
なぜ層とカラムがあるのか?
新皮質になぜ層があり、なぜカラムがあるのか、はっきりしたことは誰も知らない。 HTM 大脳皮質性学習アルゴリズムは、カラム状に構成したセルの層が 可変長の状態遷移を記憶する大容量メモリとなりうることを示した。 もっと単純に言えば、セルの層はたくさんのシーケンスを学習できる ry 。同じフィード・フォワード反応を共有するセルのカラムは可変長の遷移を学習 ry の鍵 ry
この仮説はなぜカラムが必要なのかを説明しているが、しかし 5 つの層については ry ? もし 1 層の皮質でシーケンスを学習して予測できるのであれば、なぜ ry 5 つ ry ?
我々が提唱するのは、新皮質に観察される異なる層はすべて同じ基本メカニズムを用いて シーケンスを学習しているが、各層で学習したシーケンスは異なる方法で使用 ry 。これについて我々が理解していないことはたくさん ry 考えを述べることはできる。 その前に、各層のニューロンが何に接続しているのかを述べる ry
上の図は 2 つの新皮質のリージョンとそれらの間の主要な接続関係 ry このような接続は新皮質の中の互いに関係し合う 2 つのリージョンで一般によく見 ry 。左の箱は、右の(箱の)リージョンよりも低い階層構造にある皮質性のリージョン を表しているので、フィード・フォワード情報は図の左から右へと流れる。 各リージョンは層に分け ry 2 層と第 3 層は一緒にして第 2/3 層として表されている。 0067yamaguti~貸2017/09/10(日) 21:56:13.71ID:vLQGrlPG Page 72
色のついた線は異なる層からのニューロンの出力 ry その層のニューロンから出ている軸索の束である。軸索はすぐに 2 つに分か ry 一つの枝は主にそれと同じ層の中で、リージョン内で水平方向に広がる。 よって各層のすべてのセルは相互によく接続し合っている。 ニューロンと水平方向の接続は図に示されていない。
第5層 最後のフィード・フォワード層 ry 3 層と似ているが 3 つの違い ry 。第一の違いは第 5 層が時間の概念を付加 ry 。第 3 層は次に「何」が起こるかを予測するが、それが「いつ」起こるかを教えてくれない。 しかしながら、話し言葉 ry 音の間の相対的なタイミングが重要 ry 運動動作 ry 筋肉の活性化のタイミング ry 。我々は、第 5 層のニューロンが期待した時刻の後にだけ次の状態を予測すると提唱する。 この仮説を裏付ける生物学上の詳細がいくつかある。一つは第 5 層が新皮質の運動出力層 ry 。いま一つは第 5 層が視床の一部から発して第 1 層から来る入力(図に示されていない) を受け取るということである。我々はまた、この情報こそが時間をコード化したものであり、 視床を経由して第 1 層に入力される多くのセル(図に示されていない) にこの情報が分散されると提唱する。
ry 第三の違いは図から見て取れる。 第 5 層の出力は常に皮質下部の運動中枢に向かい、 そのフィード・フォワード・パスは視床の門を通る。 第 5 層の出力は、あるときは次のリージョンへと通過し、またあるときは止められる。 我々(及び他の人)はこの門の働きが潜在的注意82に関係すると提唱する (潜在的注意は運動行動を伴わずに貴方が入力に注目することである)。 0072712017/09/10(日) 22:24:24.96ID:vLQGrlPG まとめると、第 5 層は特定のタイミング、注意、運動行動を結びつける。 これらが互いにどのように関わりあうかについては多くの謎 ry 。 ry ポイントは、HTM 大脳皮質性学習アルゴリズムのバリエーションが 特定のタイミングを容易に組み入れることができ、別々の皮質の層を結合することができる ry
第2層と第6層 第 6 層は下位のリージョンへフィードバックする軸索の起点である。 第 2 層についてはほとんど知られていない。 ry 2 層が第 3 層と比べて ユニークな点があるかどうかですら、しばしば議論 ry いまのところ ry 言えることはほとんどないが、他のすべての層と同様に ry 層はたくさんの水平方向の接続パターンを持ち、カラム単位で反応する特徴があること
空間プーリング (Spatial Pooling) 入力に対して疎分散表現を計算する処理。空間プーリングの一つの特徴は、 オーバラップする入力パターンを同じ疎分散表現に対応付けられることである。 サブサンプリング (Sub-Sampling) 大きなパターンのうちのほんのわずかなアクティブビットをマッチングするだけで、 大きな分散パターンを認識すること シナプス (Synapse) 学習によって形成されるセル(Cells)間の接続 時間プーリング (Temporal Pooling) 入力パターンのシーケンスの表現を計算する処理。結果の表現は入力よりも安定 ry トップダウン (Top-Down) フィードバック(Feedback)の同義語 可変長予測 (Variable Order Prediction) それが依存する直前の文脈の量が変化するような予測。一次予測(First Order Prediction)参照。 直前の文脈を維持管理するためのメモリを必要に応じて割り当てるため、「可変長」と呼ばれる。 そのため ry 、指数関数的 ry メモリ ry なく、文脈を時間的に後戻りすることができる。 0083yamaguti~貸2017/09/24(日) 19:46:14.55ID:ma5WYMpw?2BP(0) >492 :オーバーテクナナシー:2017/09/23(土) 19:54:47.75 ID:vY4r2i0B > 脳の大脳新皮質の学習は100ミリ秒未来の予測と実際との誤差を教師信号として学習される説を提案。 > 視床枕が予測を映し出すスクリーンの役目を担い、α波に従って予測と実際を切り替えその誤差が各領域に伝搬され逆誤差伝搬法と同じ更新がされる >http://arxiv.org/abs/1709.04654 >http://mobile.twitter.com/hillbig/status/911091101024399362
http://translate.google.jp/ コーネル大学 図書館 定量的生物学>ニューロンと認知 タイトル:深い予測学習:3つのビジュアルストリームの包括的なモデル 著者: Randall C. O'Reilly 、 Dean R. Wyatte 、 John Rohrlich
要旨:新皮質 ry 高次認知能力の基礎を学び、どのように発展 ry ? レベル間の明確な理論的連続性を持ち、生物学的、計算的、および認知的なレベルにわたる 包括 ry 提示し、各レベルでの広範なデータによって ry 一貫した答えを提供する。 学習は、感覚が100msec( ry )間隔 ry 、予測精度 ry シナプスの重みを ry に基づいている。 視床の脊髄核は、複数の脳領域からの深層6大脳皮質の入力および抽象化のレベルによって、 予測 ry 投影スクリーン ry 。層5内因性バーストニュ ry の疎駆動入力は標的信号 ry 予測との間の時間差は皮質全体に反映され、 詳細な生物物理学 ry の局所活性化信号のみを用いて誤差逆伝播に近似するシナプス変化を引き起こすモデル。 ビジョンでは、予測学習には、 ry 、3つの経路(What、Where、W ry e)の ry と解剖学 ry 必要 ry 。低レベルの感覚 ry 予測のために; ry 抽象化の学習を促進する分離可能な因子の抽出 ry ために、 集合的な低レベルの予測誤差を漸進的かつ機敏に分割しなけ ry モデルは、 ry ムービーから100種類のオブジェクトを体系的に不変なオブジェクト表現で構成し、 幅広いデータを扱い、多くのテスト可能な予測を
> Google 翻訳 > > Saturday, June 23, 2018 > 2018年6月23日土曜日 > Google Deep Mind's Bogus AI Patent Filings > Google Deep Mindの●のAI特許提出 > : >ry Google Deep Mind has filed a bunch of patent applications for well-known ry , all or nearly all of which certainly are not their original inventions. >ry 、 Google Deep Mindがよく知られている ry の特許申請 ry 。そのほとんどまたはすべてが確かにオリジナルの発明ではありませ : 0101yamaguti2018/06/29(金) 12:49:01.96ID:kHBj2QJM?2BP(0) >>100 > , for instance: > 。たとえば、 : > 溺ethods, systems, and apparatus, including computer programs encoded on a computer storage medium, for environment simulation. > "環境シミュレーションのためのコンピュータ記憶媒体上にコード化されたコンピュータプログラムを含む方法、システム、および装置。 > In one aspect, a system comprises a recurrent neural network configured to, at each of a plurality of time steps, receive a preceding action for a preceding time step, > update a preceding initial hidden state of the recurrent neural network from the preceding time step using the preceding action, > update a preceding cell state of the recurrent neural network from the preceding time step using at least the initial hidden state for the time step, > and determine a final hidden state for the time step using the cell state for the time step. > 一態様では、システムは、複数の時間ステップのそれぞれにおいて、先行する時間ステップのための先行するアクションを受信し、 ? > 前の時間ステップから前の時間ステップから先行 ry 備える。 前の時間ステップから先行する初期の隠れた状態を更新するように構成されたリカレントニューラルネットワークを備える。 > 時間ステップのための少なくとも初期隠れ状態を使用して前の時間ステップからリカレントニューラルネットワークの先行セル状態を更新し、 > 時間ステップのセル状態を使用して時間ステップの最終隠れ状態を決定する。 > The system further comprises a decoder neural network configured to > receive the final hidden state for the time step and process the final hidden state to generate a predicted observation characterizing a predicted state of the environment at the time step.” > システムは、時間ステップの最終隠れ状態を受信し、最終隠れ状態を処理して、時間ステップで環境の予測状態を特徴付ける予測観察を生成する ように構成されたデコーダニューラルネットワークをさらに備える。 : > Posted by Benjamin Goertzel > 投稿者 ベンジャミンGoertzel 0102yamaguti2018/06/29(金) 13:00:17.27ID:kHBj2QJM?2BP(0) >>100-101 >174 yamaguti 180527 1946 36TMfdUR? > >152-173 > http://rio2016.2ch.net/test/read.cgi/future/1504872499/116-117# Hannyou AI/AL / HTM Kapuseru # SoBunsan NN > http://rio2016.2ch.net/test/read.cgi/future/1504872499/138-139# Hannyou AI/AL / HTM # YuugouGijutu <-> NN TuijuuYosoku > http://rio2016.2ch.net/test/read.cgi/future/1504872499/136-137# HTM Kapuseru
>535 yamaguti~貸 171018 2218 3to/BWop? > >525 > × 補助なし深層学習ではまともに時間データを扱えないので強い AL 実現絶望的 > ○ 補助なし深層学習ではリージョン化向きとは言えないので強い AL 実現コスト問題 :
>160 : 155 180204 0533 XY7pbVXo? \>178 yamaguti 180528 1227 x4HB0Rxw? > >152 >155 >149-150 : > http://rio2016.5ch.net/test/read.cgi/future/1517369897/29#13# HTM ZenHitei >http://rio2016.2ch.net/test/read.cgi/future/1481407726/6-8## HTM > http://rio2016.2ch.net/test/read.cgi/future/1511446164/36-89#-#819-#831-837#868##823-826# HTM Ronbun 0103yamaguti2018/06/29(金) 15:41:12.77ID:kHBj2QJM?2BP(0) >924 180629 0633 NiYm+KPI > 特化型AIをブロックチェーンでつないで汎用型AIを作る=SingularityNet >http://aishinbun.com/comment/20180627/1591/ > 画像認識AI、自然言語解析AI、音声認識AI、翻訳AI、文書生成AI・・・。特化型AIはものすごい勢いで進化 > > 香港在住のAI技術者Ben Goertzel氏率いるSingularityNetは、こうした特化型AIを結びつけることで汎用型AIを構築できるプラットフォームの開発 > > プラットフォーム ry 、ベースになるのはブロックチェーン > > SinularityNetでは、DApp(非中央集権型アプリ)に必要なAI技術の提供を受けることのできるマーケットプレイスの開発 ry >。マーケットプレイスには特化型AIの開発者が開発した特化型AIが展示され、DAppの開発者が必要なAIの機能を購入できる > > とはいっても人間がAI機能の売買をするのではなく、 ry スマートコントラクトと呼ばれる仕様書兼契約書 ry 、DAppと各種AIが自動的に結びつく形 > > ry トークン機能によって、機能を提供したAIに対してDAppから仮想通貨が支払われ > > 特化型AIを組み合わせることによって汎用型AIを作ろうという動きは世界中あちらこちらで進んでいるが、 > マーケットプレイスを作り仮想通貨というインセンティブ ry 加速 ry SingularityNetのやり方 > > 新しい特化型AIが次々と開発され、 ry マーケットプレイスを通じて自由自在に結びつき、これまでにないような機能やサービス > >汎用型AI ry 、こういう仕組 ry 、意外と早く実現するかも > > SingularityNetはこれまでに何度かニュース > > 昨年末に同社がICOしたところ、1分間で40億円を調達。大きな話題 > > 人間型ロボットSophiaを開発したことでも有名 0104ウルトラスーパーハイパーフォーマットスパーダモンバーストモード2018/08/06(月) 04:22:09.16ID:mUbSQdkd 拙者はアンドロモンが好きだよ、拙者はアンドロモンが御好みだよ、拙者はアンドロモンが大好きだよ、拙者はアンドロモンを愛好するよ、拙者はアンドロモンを嗜好するよ、拙者はアンドロモンは友好するよ 寧ろ逆にアンドロモンを大切にするよ、他に別にアンドロモンを大事にするよ、例え仮に其れでもアンドロモンを重視するよ、特にアンドロモンを尊敬するよ、もしもアンドロモンを褒めるよ 十中八九アンドロモンを希望するよ、森羅万象アンドロモンを渇望するよ、無我夢中アンドロモンを要望するよ、五里霧中アンドロモンを切望するよ、天上天下アンドロモンを熱望するよ、是非ともアンドロモンを祈願するよ 100%アンドロモンに決定だよ、十割アンドロモンに限定だよ、確実にアンドロモンに指定だよ、絶対にアンドロモンに認定だよ、必ずアンドロモンに確定だよ 当然アンドロモンは斬新奇抜だよ、無論アンドロモンは新機軸だよ、勿論アンドロモンは独創的だよ、一応アンドロモンは個性的だよ、多分アンドロモンは画期的だよ アンドロモンは強いよ、アンドロモンは強力だよ、アンドロモンは強大だよ、アンドロモンは強者だよ、アンドロモンは強豪だよ、アンドロモンは強剛だよ、アンドロモンは強靭だよ、アンドロモンは強烈だよ アンドロモンの勝ち、アンドロモンの勝利、アンドロモンの大勝利、アンドロモンの完全勝利、アンドロモンの圧勝、アンドロモンの楽勝 アンドロモンの連勝、アンドロモンの優勝、アンドロモンの戦勝、アンドロモンの制勝 アンドロモンの奇勝、アンドロモンの必勝、アンドロモンの全勝、アンドロモンの完勝 0105yamaguti2018/08/12(日) 18:51:21.66ID:ltAhnLdz?2BP(0) Google 翻訳
抽象- In-OrderスカラーRISCアーキテクチャは、20年にわたってFPGAソフトプロセッサ設計の支配的 ry ? ry 順序外スーパスカラ ry 。 従来のアウトオブオーダスーパスカラ実装は、競合領域または絶対性能を示さなかった。 本稿では、EDGE(Explicit Data Graph Execution)命令セットアーキテクチャを利用して、高速かつエリア効率の優れた順序外のスーパースカラソフトプロセッサを構築 ry 。 EDGEマイクロアーキテクチャ、特にそのデータフロー命令スケジューラを慎重にマッピングすることにより、アウトオブオーダFPGA ry 実証します。 2つのスケジューラ設計の選択肢が比較されます。 索引用語 - 明示的データグラフ実行(EDGE); ハイブリッドフォンノイマンデータフロー; FPGAソフトプロセッサ 0106>>1052018/08/12(日) 19:02:06.08ID:ltAhnLdz?2BP(0) 1. 前書き
設計の生産性は、リコンフィギュラブル ry の課題 ry ? ワークロードをゲートに移植し、 ry 。 ワークロードをゲートに移し、10^2〜10^4秒のビットストリーム再設計の設計反復に耐えるのは高価です。 ソフトプロセッサアレイオーバーレイは、これらのコストを軽減 ry ? 高価な初期ポートは、ソフトプロセッサーを対象 ry 。 コストがかかる最初の移植は、ソフトプロセッサを対象とした単純なクロスコンパイルとなります。ほとんどのデザインターンは、迅速な再コンパイルです。 ? ry 、または相互接続 として公開されているカスタムハードウェア ry 。 アプリケーションのボトルネックは、新しい命令、機能ユニット、自律アクセラレータ、メモリ、または相互接続の公開済機能を持つカスタムハードウェアにオフロードできます。 ? 異種のFPGA ry 相補的な有用性 ry 。 ヘテロジニアス FPGA とハードARMコアの出現は、ソフトコアの相補的有用性を低下させません。 FPGAの容量が倍増 ry ソフトプロセッサも倍増します。 ? いくつかのハード・プロセッサーが一致しないスループット ry 。 中規模のFPGAは現在、何百ものソフトプロセッサとそのメモリ相互接続ネットワー ry 。そのような超並列プロセッサとアクセラレータアレイ(MPPAA)は、サイクルごとに数百のメモリアクセスとブランチ -- 一部のハードプロセッサを越えるスループッ ? ry 20年後にはほとんど変わりません。 汎用ソフトプロセッサーのマイクロアーキテクチャーは20年間余り変わっていません。 ? ry インラインパイプライン型スカラーRISC ry 。 Philip Freidinの16ビットRISC4005(1991)は、j32、xr16、NIOS、MicroBlaze [1] -- [4]のように、インオーダパイプライン型スカラ RISC であり、最新バージョンと同様です。 何年もの間、ソフトプロセッサは命令レベルの並列性を高めるためにキャッシュ、分岐予測器、 ry 、基本的なスカラーRISCマイクロアーキテクチャが依然として支配的です。 ? ry と1つのライト/サイクルLUT RAM ry 。 これは、この単純なマイクロアーキテクチャと、 ry FPGAプリミティブ要素、特にLUTとライトパーサイクル LUT RAM との間の良好な適合を反映しています。 残念なことに、このようなアーキテクチャでキャッシュミス ry 、実行は停止 ry 。 0107>>1062018/08/12(日) 19:05:50.98ID:ltAhnLdz?2BP(0) ? ry ソフトプロセッサの代わりにVLIW [5]、[6]またはベクトル[7]、[8]コア。 より高い命令レベル並列(ILP)マイクロアーキテクチャをターゲットとする設計研究は、典型的には、アウトオブオーダー(OoO)[9] -- [11]ソフトプロセッサコアの代替としてのVLIW [5]、[6]またはベクトル[7]、[8] アーキテクチャを挙げれます。 スーパースカラOoOマイクロアーキテクチャの問題は、レジスタの名前を変更し、命令をデータフロー順にスケジューリングし、誤特定した後にクリーンアップし、正確な例外のために結果を順序通りにリタイアさせるために必要な機械の複雑さです。 ? これは、 ry 多数ポートCAM、 ry 、これらのすべてがFPGAで面積が集中する。 これにより、深い多ポートレジスタファイル、データフロー命令スケジューリングウェイクアップのための多ポートCAM、および多くのワイドバスマルチプレクサおよびバイパスネットワークなどの高価な回路を必要とし、これらのすべてがFPGAの面積消費を加速する。 ? ry 、マルチリード、マルチライトRAMは、レプリケーション、 ry 。 例えば、マルチリード、マルチライトRAMは、転送形態の混在、マルチサイクル動作、クロックダブリング、バンクインターリーブ、ライブバリューテーブル、その他の高価な技術を必要とします。 ? 現在の作業は、 この度の取組は、複雑さとオーバーヘッドのほとんどを伴わずに、高いILP OoOスーパースカラソフトプロセッサを構築 ry 、面積とエネルギー効率の高い高ILP実行 ry 明示的データグラフ実行(EDGE)[12]、[13]命令セットアーキテクチャを実装 ry
1
? ry 、順不同のプロセッサーをインライン・スカラーRISCより ry 。 EDGEアーキテクチャーとそのコンパイラーは、レジスタの名前変更、CAM、複雑さを払拭し、アウトオブオーダプロセッサーをインオーダスカラ RISC よりも数百LUTだけ有効にします。 ? ry が、今日のFPGA上で一般的なインオーダRISCとどのように似ているかを解説します。 本稿では、 ry EDGEマイクロアーキテクチャと、今日のFPGA上で一般的なインオーダRISCとの共通性を解説します。 重要な課題と論文の主な貢献点は、FPGAに小型で高速なデータフロー命令スケジューラを構築する方法です。 最小面積のEDGEソフトプロセッサを開発する途中で、2つの代替FPGA実装を開発して対比 ry 。 0108yamaguti2018/08/12(日) 19:10:26.37ID:ltAhnLdz?2BP(0) http://rio2016.2ch.net/test/read.cgi/future/1489922543/184-2160109>>1072018/08/12(日) 19:11:09.35ID:ltAhnLdz?2BP(0) II. EDGE の概要
? オペラのバッファ オペランドバッファ 32 x 32 LUT-RAMS 0115>>1142018/08/12(日) 19:19:00.60ID:ltAhnLdz?2BP(0) EX EX パイプラインの REGS
EX TS
OPS0 32x32
×
LS ロード/ストア キュー
データキャッシュデータ nK x 32 ブロック RAM
LS PIPELINE REGS
×2
REGISTER FILE 32 x 32 LUT-RAM
? ry 2つのデコード、シングル発行の ry 。 図3: 2 デコード、シングルイシューのEDGEマイクロアーキテクチャ。 0116>>1152018/08/12(日) 19:20:48.94ID:ltAhnLdz?2BP(0) A. マイクロアーキテクチャ 図3は、コンパクトEDGEプ ry 例 ry >>114-115>>114>>115 ? ry 、およびメモリ/データキャッシュアクセスを含む命令およびデータキャッシュおよび5段階パイプライン(従来のインオーダスカラーRISC) LS)。 これは、命令フェッチ(IF)、デコード(DC)、オペランドフェッチ、実行(EX)、およびメモリ/データキャッシュアクセス ( LS ) を含む I/D キャッシュおよび5段階パイプラインを持つほぼ従来型のインオーダスカラ RISC です。 ? ry 読み出されます。 インオーダ・プロセッサとは異なり、命令オペランドはレジスタ・ファイルではなくオペランド・バッファから読出され、 ? ry データフローの 又データフローの順序で次に実行する命令は、IS(発行)パイプラインステージによって決定されます。 これは、データフロー命令スケジューラと、デコードされた命令バッファと、オペランドバッファとを含む命令ウィンドウを使用する。 ? 単純な ry プログラム命令 ry 。 その際に単純なロードストアキューを使用してプログラムされた順の通りのメモリ命令群を発行します。 フロントエンド(IF、DC)はバックエンド(IS、EX、LS)から切り離 ry 。クロックごとに2つの命令をフェッチし、命令ウィンドウにデコードします。 命令ウィンドウのデータフロースケジューラは、各デコードされた命令の入力すなわち ? その述語とオペランド。 その述語とオペランドのレディステートを保持します。 ? 準備完了状態になると、 ry 。 すべての入力(ある場合)がレディ状態になると、命令は起動し、発行準備が整います。 最も低い番号のレディ命令IIDが各サイクルで選択され、そのデコードされた命令および入力オペランドが読 ry 。データマルチプレクサとファンクションユニット制御信号のほかに、この命令は最大2つのレディイベントをエンコードします。 ? ry および/またはイベント ry 準備状態を更新する。 スケジューラは、これらの and/or イベントを他のソース(T0およびT1に多重化)から受け取り、ウィンドウ内の他の命令のレディ状態をアップデートする。 このようにして、データフローの実行が開始され、ブロックのレディ0入力命令、次にこれらがターゲットとする命令など ry 。 0117>>1162018/08/12(日) 19:21:49.32ID:ltAhnLdz?2BP(0) B. EDGEデータフロー命令のスケジューリング要件 ? ry、コアのリンチピンです。 命令ウィンドウとスケジューラは、コアの鎹です。 それらの領域、クロック周期、能力、および制限によって、EDGEコアの実現性能と ry が大きく左右されます。
2
命令スケジューラは、多様な機能と要件を備えています。 ? ry 同時です。 それは非常に同時並行的です。 ? ry 、デコーダは、命令をデコードし、デコードされた ry 。 各サイクルにおいて、デコーダは、デコードされたレディ状態及びデコードされた命令をウィンドウに書き込む。 ? ry バックエンドは準備完了イベント ry 。 各サイクルで、スケジューラは発行する次の命令を選択し、それに応答してバックエンドはレディイベント -- 特定の命令の入力スロット(述語、オペランド#0、オペランド#1)をターゲットとするターゲットレディイベント、またはブロードキャストIDで待機しているすべての命令をターゲットとしたブロードキャストレディイベントのいずれかを送信します。 これらは命令毎のアクティブレディ状態ビットをセットし、デコード済みレディ状態と共に命令が発行可能であることを知らせる。 ? ry を受け付け、発行されたレディ命令の再発行を禁止する必要があることに注意してください。 スケジューラは、まだデコードされていないターゲット命令のイベントを受付けるので、発行されたレディ命令の再発行を禁止 ry ? ry 、または述語の真または偽である可能性 ry 。 EDGE命令は、述語ではないか、又は true か false という述語である可能性があります。 ? ry 、別の命令の述語結果によって ry 。 述語化された命令は、別の命令の述語評価結果によってターゲットにされ、その結果が述語条件と一致するまで、準備ができません。 ? ry 発行しません。 述語が一致しない場合、命令は決して発行されません。 0118>>1172018/08/12(日) 19:24:42.29ID:ltAhnLdz?2BP(0) 新しいブロックへの分岐では、すべての命令ウインドウレディ状態がフラッシュクリアされる(ブロックリセット)。 しかし、ブロックがそれ自身に分岐すると(ブロックリフレッシュ)、アクティブレディ状態のみがクリアされ、 デコードされたレディ状態は保存されるので、 ry 再フェ ry 必要はない。 ry 節約するための鍵です。 ソフトウェアクリティカルパスの一部は、依存する命令の1つのチェーン ( 例 ? ry 、連続するバックツーバック命令ウェイクアップのためにパイプラインバブルを追加しないことが重要です。 A → B → C と順にターゲット ) で構成されており、データフロースケジューラは、連続するバックツーバック命令の起動の為のパイプラインバブルを追加しない点は重要です。 ? ry レディ・イグジット・ターゲット・レディ・パイプラインの再発行は、クロック・サイクルに深刻 ry したがって、ISステージのレディ・イシュー・ターゲット・レディ・パイプラインの再発行は、クロック周波数に深刻な影響を与えないと仮定すると、1サイクル ry ADDのような命令は、1サイクルの待ち時間を有する。 ? ry 、スケジューラはターゲットステージの命令をISステージでウェイクさせることができます。 EXステージの結果転送では、命令が完了する前であっても、スケジューラはISステージでターゲットがターゲットする命令を起動させることができます。 他の命令の結果は、ALUの比較を待つか、複数のサイクルを取るか、または未知の待ち時間 ry ? これらは後で目標を起こすまで待たなければなりません。 これらの場合はターゲットを後で起動する様にウェイトせねばなりません。 0119>>1182018/08/12(日) 19:27:23.26ID:ltAhnLdz?2BP(0) ? ry 、予想されるEDGE実装のスペクトルにわたってスケーラブルでなければなりません。各サイクルは、 ry 、1サイクルあたり1〜2の命令を発行します。 最後に、スケジューラ設計は、予想されるEDGEのスペクトル実装にわたってスケーラブル -- 各サイクルは、少なくとも1〜4のデコードされた命令と2〜4つのターゲットレディイベントを受入れ、1サイクルあたり1〜2の命令を発行します -- でなければなりません。 2つの代替的なデータフロー命令スケジューラ設計を考える: ? ry 、各命令のレディステータスが各サイクルで再評価されます。 FPGAのDフリップフロップ(FF)で命令のレディ状態が明示的に表現されているブルートフォース並列スケジューラでは、各命令のレディステータスが各サイクルで再評価されます。 ? よりコンパクトなインクリメンタルスケジューラで、 ry 。 そしてよりコンパクトなインクリメンタルスケジューラでは、LUT RAMにレディ状態を保持し、1サイクルあたり2〜4ターゲット命令のみのレディステータスを更新します。 0120yamaguti2018/08/12(日) 19:28:42.23ID:ltAhnLdz?2BP(0) http://rio2016.2ch.net/test/read.cgi/future/1489922543/184-2160121>>1192018/08/12(日) 19:29:15.90ID:ltAhnLdz?2BP(0) C. 並列命令スケジューラ
BID T1 T0 ENs
31 ... 3 DBID DRT DRF DR0 DR1
NEXT RDYS RDY RT RF R0 R1 INH
2 1 0
DEC.RDYS リセット RESETv リフレッシュ
32→(5,1) ? 優先エンコーダ 優先度エンコーダ
IID,V
図4: エントリ#2をより詳細に示す、並列データフロースケジューラのブロック図。 0122>>1212018/08/12(日) 19:30:35.06ID:ltAhnLdz?2BP(0) 図4は、図3の命令ウィンドウのための並列命令スケジューラを示す。 >>121 ? アクティブ準備完了状態は、ターゲット準備完了イベントT0、T1および ry )によって設定され、 ry 。 アクティブレディステートは、ターゲットレディイベントT0、T1及びブロードキャストID BID(存在する場合)によってセットされ、さまざまな入力タイプによって修飾されてENをイネーブルにすることに注意してください。 ? ry 、1命令準備回路のインスタンス ry 。 32エントリウィンドウの場合、1命令分の回路のインスタンスが32個あります。 どのサイクルにおいても、32個のRDY信号のうちの1つ以上がアサートされてもよい。 ? ry 、これを発行する次の命令の5ビットIIDに縮小する。 32ビット優先度エンコーダは、これを次の発行される命令の5ビットIIDに縮小する。 各エントリに対して、復号されたレディ状態の6ビットがあり、 ? すなわち、それらは命令デコーダによって初期化される。 それらは、例えば次の様に命令デコーダによって初期化される :
? ry 符号化し、恐らくブロードキャストチャネルを介して述語および/またはいくつかのオペランドを待つか、 ry 。 これらのビットはともに、命令がデコードされたかどうかを符号化し、述語および/またはいくつかのオペランドを恐らくブロードキャストチャネルを介して待つか、またはすぐに発行する準備ができているかどうかをエンコードする。 これらのビットは、ブロック・リセット時にのみクリアされます。 0123>>1232018/08/12(日) 19:32:45.64ID:ltAhnLdz?2BP(0) ? アクティブ・レディ状態の ry : アクティブレディステータスの6ビットもあります:
リスト1:並列スケジューラー `` next readys ''ロジック 0129>>1282018/08/12(日) 19:46:50.84ID:ltAhnLdz?2BP(0) リスト1は、N-entry並列スケジューラー用の `` next readys ''を生成するVerilogです。 >>128 4つのレディ・イベント入力タイプ(述部真、偽、オペランド#0、オペランド#1)がありますが、 ? ry 、真/オペランド#1ターゲットから偽/オペランド#0ターゲットを区別するのに単一のターゲットインデックスビットで十分である。 述部ターゲットイベントがオペランドターゲットイベントと同じサイクルで発生しないことを保証することによって、真/オペランド#1ターゲットと偽/オペランド#0ターゲットを区別する為のターゲットインデックスビットは一つで済む。 ? N = 32エントリの命令ウィンドウの場合、T0とT1は6ビット{入力#1:0}である(すなわち、特定の{RT / RF / R0 / R1} . ? IID:5}。 (特定の{RT / RF / R0 / R1} EN がイネーブル化する事によってデコーディングが促進される ) すなわち、 N = 32エントリの命令ウィンドウの場合、T0とT1は6ビット{入力#1: IID:5}である。 ? ry (ターゲット0の入力0等)は、ブロードキャスト選択デコーダB ry 。 ターゲットデコーダT00、T01、T10、T11(ターゲット0の入力0 、等)は、放送選択デコーダBと同様に、それぞれ6-LUTである。 ? ry 、現在アクティブでデコードされたレディステートでターゲットデコーダ出力を一緒にフォールドします。 次のアクティブレディ状態ロジックは、現在アクティブかデコードされたレディステートでターゲットデコーダ出力を一緒に畳みます。 これにはさらに7つのLUT(INH_NXTでは2つ)が必要で、合計32 * 12 = 384のLUTが必要です。 これは、32エントリスケジューラを偶数および奇数命令の2つの16エントリバンクに分割 ry 改善 ry ? ある銀行内では、4ビットの銀行IIDで十分である。 1 つのバンクに付き、4ビットのバンク IID で十分である。 ? ry 、T5、T10、T11は2つの5,5-LUT、 ry 。 次に、T0、T1は5ビットに狭くなるので、T00、T01、T10、T11は2つの5,5-LUT、INH_NXTは1つの6-LUT、または2 * 16 *(3 + 6)= 288のLUTに収まります。
4 0130>>1292018/08/12(日) 19:49:12.10ID:ltAhnLdz?2BP(0) ? ry :LUTまたはキャリーロジックまたはツリー、キャリーロジックゼロスキャン、および ry ワンショット変換を含む、多くの32ビットエンコーダデザインが評価されました。 優先順位エンコーダ:LUTまたはキャリーロジックの OR ツリー、キャリーロジックのゼロスキャン、およびF7MAP / F8MAPマルチプレクサを使用したワンホット変換を含む、多くの32ビットエンコーダデザインが評価検討されました。 ? ry 、2つのLUT遅延で完了する。 現在の設計では、バンク当たり2つの16→4エンコーダを使用し、2つの LUT の遅延で完了する。 ワン・イシュー・プロセッサでは、後続の2:1マルチプレクサがこれらのエンコーダ出力の1つを選択します。 特に、各16ビットエンコーダ入力I [15:0]はI [15]、I [14:10]、I [9:5]、I [4:0]にチャンクされる。 ? 各5ビットグループは32x4 LUT ROMにインデックスを付け、そのグループのエンコーダ出力を事前計算します。 各5ビットグループはそのグループのエンコーダ出力を事前計算してある 32x4 LUT ROM をインデックスします。 ? 3つの5ビットゼロコンパレータ出力とともに、 ry 。 5ビットゼロコンパレータ出力 3 つは共に、3つのグループがすべてゼロのときに 'b1111'を出力するカスタム4ビット3:1セレクタに供給されます。 ? ry RPM(Relativeally配置されたマクロ) ry 。 技術マッピングとフロアプランニング: このデザインではRPM(関連配置マクロ)手法を使用してエリアと相互接続の遅延を改善し、モジュール構成と大規模な複製で簡単なルーティングとタイミングクロージャのための繰り返し可能なレイアウトを実現します。 構造RTLはモジュールをインスタンス化し、それらをスケジューラにタイルします。 6入力モジュール上のXST注釈(* LUT MAP = "yes" *)は、そのロジックを1つのLUTにロックします。(* RLOC = "XxYy" *)は、FPGAプリミティブをクラスタにパックし、相互に相対的にクラスタを配置します。 0131yamaguti2018/08/12(日) 19:51:29.03ID:ltAhnLdz?2BP(0) http://rio2016.2ch.net/test/read.cgi/future/1489922543/184-2160132>>1302018/08/12(日) 19:51:58.10ID:ltAhnLdz?2BP(0) 図5: 並列スケジューラのFPGA実装
? ry 、およびデコードされた命令バッファ ry 。 図5は、スケジューラ、プライオリティエンコーダ、およびデコード済命令用バッファを含む図4のザイリンクス7シリーズの実装であり、クリティカルパスが白 ry FPGAスライスの2つの水平な行はそれぞれ、命令ウィンドウの4つのエントリに対応します。 左から右へ:
? 右側には、複数の32x6ビットトゥルーデュアルポートLUT RAMに実装された、合成された優先エンコーダとマルチプレクサ(青)とデコードされた命令バッファ(白) ry 。 右側には、合成された優先度エンコーダとマルチプレクサ(青)と、複数の 32 x 6 ビットトゥルーデュアルポート LUT RAM に実装されたデコード命令用バッファ(白 ry ? ry デコード済命令LUT RAM、 ry 。 パフォーマンス:Kintex-7 -1スピードグレードでは、クリティカルパスにRDYクロックトゥーアウト、プライオリティエンコーダ、マルチプレクサ、デコードされた命令LUT RAM、次のreadysロジック、RDYセットアップを含む5.0 nsが必要です。 相互接続遅延はクリティカルパスの85%です。残念ながら、RDYからRDYまでのすべてのパスは、比較的大きな直径のネットリストを通過 ry ? ry バックツーバック問題(連続サイクルで) ry 。 スケジューラクリティカルパス(命令バッファLUT RAMの出力ポート)の途中でパイプラインレジスタを追加することにより、サイクルタイムを2.9nsに短縮することができますが、 これは、単一の従属命令チェーンのバックツーバックイシュー(連続サイクルで)を達成することはできません。 0133>>1312018/08/12(日) 19:52:35.34ID:ltAhnLdz?2BP(0) ? ry 準備完了状態 E. 増分データフロースケジューラレディー状態 並列スケジューラは簡単ですが、32x12bのレディステート(LUT RAMの数少ないLUT)を維持するために何百ものLUTとFFを消費し、命令ウィンドウのサイズが2倍になるとこの領域も2倍になります。 ? また、発行された各命令が多くても2つの他の準備完了状態に影響を与えても(ブロードキャストにもかかわらず)、各命令の次のreadys LUTの各サイクルはすべての命令の準備を再計算します。 又、発行された各命令が大抵 2 つの他のレディー状態に影響を与えても(ブロードキャストにもかかわらず)、LUT での各レディーは次の各サイクルで全ての命令のレディーステートを再計算させます。 ? ? ry 、キュー内のレディ命令のフロンティアを維持し、 ry 。 対照的に、インクリメンタルスケジューラは、LUT RAMでデコードされたアクティブレディ状態を保持し、キュー内のレディ命令のフロンティアを整備し、1サイクルあたりわずか2〜4ターゲット命令のレディステータスを評価します。
ARDYSS WA ← EVT_IID RA ← EVT_IID I ← READYLOGIC ARDYS_NXT O → READYLOGIC DRDYS
DVS ← RESET O → READYLOGIC DV WA ← DRDYSS WA RA ← DRDYSS RA
AVS ← RESETvREFRESH WA ← ARDYSS WA RA ← ARDYSS RA O → READYLOGIC AV
READY LOGIC READY → DV ← DVS O DRDYS ← DRDYSS O AV ← AVS O ARDYS → ARDYSS O ARDYS_NXT → ARDYSS I EVT_RDYS ← EVT_RDYS 0136>>1352018/08/12(日) 19:57:14.42ID:ltAhnLdz?2BP(0) ? ry :準備状態、検証、および準備論理。 (a)設計:レディー状態、検証、およびレディーロジック。
? ry ・バンクの競合が存在する可能性があります。 EDGEコンパイラは、命令の両方のターゲットがディスジョイント・バンクにあることを保証するわけではないため、スケジューラ・バンクの競合が発生する可能性 ry 。 ADD命令は、命令10のオペランドと命令12のオペランドを対象 ry ? ry できないため、1つのイベントが処理され、もう1つのイベントが後のサイクルでキューに入れられます。 同じサイクルで2つの偶数バンク・ターゲットのアクティブ・レディ状態を更新することはできないため、 1 つのイベントが処理された後のサイクルで、もう 1 つのイベントがキュー ry 0139>>1382018/08/12(日) 20:01:53.31ID:ltAhnLdz?2BP(0) F. インクリメンタルなデータフロースケジューラの設計、運用、実装 スケジューラのコア(図7)は次のように構成されています。
強化学習アルゴリズムは、エージェントへの慎重にエンジニアリングされた外的な環境報酬に依存します。 しかし、手作業で設計された密集した報酬で各環境に注釈を付けることはスケーラブルではなく、エージェントに内在する報酬機能を開発する必要があります。 好奇心は報酬信号として予測誤差を用いる内的報酬関数の一種である。 このペーパーでは、(a)Atariゲームスイートを含む54の標準ベンチマーク環境全体にわたって、純粋に好奇心に基づいた学習、つまり、いかなる外的報酬も伴わない最初の大規模な学習を行います。 私たちの結果は、驚くほど優れたパフォーマンスと、本質的な好奇心の目標と多くのゲーム環境の手作業で設計された外的報酬との高度なアライメントを示しています。 (b) We investigate the effect of using different feature spaces for computing prediction error and show that random features are sufficient for many popular RL game benchmarks, (b)我々は、予測誤差を計算するために異なる特徴空間を使用することの効果を調べ、多くの一般的なRLゲームのベンチマークではランダムな特徴が十分であることを示し、 but learned features appear to generalize better (eg to novel game levels in Super Mario Bros.). 学習された機能は、より一般化するように見える(例えば、スーパーマリオブラザーズの新規ゲームレベルへ)。 (c)予測ベースの報酬の制限を確率的な設定で実証する。 ゲームプレイ動画やコードは http://pathak22.github.io/large-scale-curiosity/ 。 0157>>1562018/08/27(月) 09:34:29.87ID:Zq8VRJ9K?2BP(0) 前書き
このホワイトペーパーでは、様々なシミュレートされた環境のさまざまな範囲の固有の報酬によって純粋に駆動されるエージェントの大規模な実証研究を行っています。 In particular, we choose the dynamics-based curiosity model of intrinsic reward presented in Pathak et al. 特に、我々はPathak et al。が提示した内在的報酬のダイナミクスに基づく好奇心モデルを選択する。 [27] because it is scalable and trivially parallelizable, making it ideal for large-scale experimentation. [27]スケーラビリティと並行して並列化できるため、大規模な実験には理想的です。 中心的なアイデアは、エージェントの現在の状態、すなわちエージェントの学習された順動力学の予測誤差を与えられたエージェントの行動の結果を予測する際の誤りとして、内在的な報酬を表現することである。 我々は、図1に示すビデオゲーム、物理エンジンシミュレーション、および仮想3Dナビゲーションタスクの54の環境にわたるダイナミクスに基づいた好奇心を徹底的に調査します。 0159>>1582018/08/27(月) 09:35:36.27ID:Zq8VRJ9K?2BP(0) 好奇心に基づいた学習をより深く理解するために、パフォーマンスを決定づける重要な要因についてさらに検討します。 特に、高次元の生の観測空間(例えば、画像)における将来の状態を予測することは困難な問題であり、最近の研究[27,42]に示されるように、補助的な特徴空間における学習のダイナミクスは改善された結果につながる。 しかしながら、そのような埋め込み空間をどのように選択すべきかは、重要であるが未だオープンな研究課題である。 体系的アブレーションを通じて、エージェントが自分の好奇心によって純粋に動くように、エージェントの観察をコード化するさまざまな方法の役割を調べます。 To ensure stable online training of dynamics, we argue that the desired embedding space should: (a) be compact in terms of dimensionality, ダイナミクスの安定したオンライントレーニングを確実にするために、我々は、所望の埋め込み空間が、(a)次元的にコンパクトであり、 (b) preserve sufficient information about the observation, and (c) be a stationary function of the observations. (b)観測に関する十分な情報を保持し、(c)観測の定常関数である。 私たちはランダムなネットワークを介して観測をエンコーディングすることは、多くの一般的なRLベンチマークで好奇心をモデル化するための単純で効果的な手法であることを示しています。 これは、多くの一般的なRLビデオゲームのテストベッドは、一般的に考えられているように視覚的に洗練されていないことを示唆するかもしれません。 興味深いことに、練習ではランダムな機能で十分なパフォーマンスが得られますが、学習した機能は一般的に良く見えます(たとえば、Super Mario Bros.の新しいゲームレベル)。 0160>>1592018/08/27(月) 09:36:10.49ID:Zq8VRJ9K?2BP(0) 要約すれば: (a) We perform a large-scale study of curiosity-driven exploration across a variety of environments including: (a)私たちは、好奇心に基づいた探査の大規模な研究を、 the set of Atari games [4], Super Mario Bros., virtual 3D navigation in Unity [1], multi-player Pong, and Roboschool [39] environments. Atariゲーム[4]、Super Mario Bros.、Unity [1]、マルチプレイヤーPong、Roboschool [39]環境での仮想3Dナビゲーション。 (b)ランダム特徴、画素、逆ダイナミクス[27]、変分オートエンコーダ[15]を用いて、ダイナミクスに基づいた好奇心を学習するための異なる特徴空間を広範囲に調査し、見えない環境への一般化を評価する。 (c)我々は、直接予測誤差に基づく好奇心の定式化のいくつかの限界について議論することによって結論づける。 エージェント自体が環境中の確率論の源であるならば、実際の進歩を伴わずに報酬を得ることができます。 エージェントが環境の異なる部分を制御する3Dナビゲーションタスクで、この制限を経験的に実証します。
観測xtを見て、xt + 1の観測で次の状態に移り、次の状態に遷移するエージェントを考えてみましょう。 私たちは、このエージェントを、移行がどれほど有益であったかという報酬と奨励したいと考えています。 この報酬を提供するために、我々は以下の要素を含む探査ボーナスを使用します: (a)観測値を表現φ(x)に埋め込むためのネットワーク、 (b)前回の観測と行動p(φ(xt + 1)| xt、at)に条件付けられた次の状態の表現を予測するフォワードダイナミクスネットワーク。 Given a transition tuple {xt,xt+1,at}, the exploration reward is then defined as rt = ? 遷移タプル{xt、xt + 1、at}が与えられると、探索報酬はrt =? log p(φ(xt+1)|xt,at), also called the surprisal [2]. log p(φ(xt + 1)| xt、at)は、驚くべき[2]とも呼ばれます。
この報酬を最大にするように訓練されたエージェントは、予測誤差が大きい遷移を優先します。これは、エージェントが短い時間を過ごした領域で、または複雑なダイナミクスを持つ領域で高くなります。 このようなダイナミクスを基盤とした好奇心はシナリオ全体にわたって非常によく実行されることが示されている[27]。特にダイナミクスが生の観測ではなく埋め込み空間で学習されている。 In this paper, we explore dynamics-based curiosity and use mean-squared error corresponding to a fixed-variance Gaussian density as surprisal, ie, f(xt,at) ? この論文では、ダイナミクスに基づく好奇心を探り、固定分散ガウス密度に対応する平均2乗誤差を驚くべきもの、すなわちf(xt、at)とする。 φ(xt+1)2 2 where f is the learned dynamics model. φ(xt + 1)2 2ここで、fは学習された力学モデルである。 しかし、他の密度モデルを使用することもできる。 0162>>1612018/08/27(月) 09:37:29.21ID:Zq8VRJ9K?2BP(0) 2.1 フォワードダイナミクスのための特徴空間 上記の好奇心の定式化におけるφの表現を考えてみよう。 φ(x)= xならば、フォワードダイナミクスモデルは観測空間で予測を行う。 特徴空間の良好な選択は、予測タスクをより扱い易くし、観測空間の無関係な側面を取り除くことができる。 しかし、ダイナミクスの好奇心を生み出すための優れた機能スペースは何になるでしょうか? 優れた機能スペースにはいくつかの特質があります。
次に、埋め込みネットワークφとして平均値への写像を用いることができる。 These features will be a low-dimensional approximately sufficient summary of the observation, これらの特徴は、観察の低次元の概ね十分な要約であり、 but they may still contain some irrelevant details such as noise, and the features will change over time as the VAE trains. ノイズなどの無関係な詳細が含まれている可能性があります。その機能は、VAEがトレーニングするにつれて変化します。
• 姫PO。 一般に、我々は、PPOアルゴリズム[38]が、ハイパーパラメータチューニングをほとんど必要としない頑強な学習アルゴリズムであることを見出したので、我々は実験に固執する。 • 正規化に報いる。 報酬関数は非定常であるので、価値関数が迅速に学習できるように報酬のスケールを正規化することは有用である。 これは、報酬を、割引報酬の合計の標準偏差の実行中の見積もりで除算することによって行いました。 •アドバンテージの正規化。 PPOで訓練している間に、平均値0と標準偏差1を持つバッチの利点[46]を標準化します。 • 観測の正規化。 私たちは目標環境上でランダムエージェントを10000ステップ実行し、観測の平均と標準偏差を計算し、それらを使用してトレーニング時の観測値を正規化します。 これは、初期化時のフィーチャのばらつきが小さく、環境によってばらつきが少ないことを確認するのに便利です。 •より多くの俳優。 使用される並列アクター(バッチサイズに影響する)の数を増やすことによって、メソッドの安定性が大幅に向上します。 私たちは通常、エージェントを訓練する間にデータ収集に同じ環境の128並列実行を使用します。 •機能を正規化する。 内在的報酬と外的報酬を組み合わせる際に、内在報酬の規模が国家空間全体で一貫していることを保証することが有用であることがわかった。 我々は、特徴埋め込みネットワークにおいてバッチ正規化[13]を用いることによってこれを達成した。 0166>>1652018/08/27(月) 09:40:16.21ID:Zq8VRJ9K?2BP(0) 2.3 `死は終わりではない ':無限の地平線との割引好奇心 1つの重要な点は、エピソード信号の終わり(時には「完了」と呼ばれる)を使用すると、実際の報酬機能に関する情報が漏れることが多いことです。 シグナルを取り除かなければ、Atariのゲームの多くは単純すぎるようになります。 For example, a simple strategy of giving +1 artificial reward at every time-step when the agent is alive and 0 on death is sufficient to obtain a high score in some games, 例えば、エージェントが生きているときにステップごとに+1の人工報酬を与えるという簡単な戦略は、いくつかのゲームで高い得点を得るには死亡時に0で十分ですが、 for instance, the Atari game ` Breakout ' where it will seek to maximize the episode length and hence its score. たとえば、エピソードの長さを最大化しようとするAtariゲームの「Breakout」とそれに伴うスコアです。 否定的な報酬の場合、エージェントはできるだけ早くエピソードを終了しようとします。
すべての実験では、ポリシーと埋め込みネットワークの両方がピクセルから直接的に機能します。 ハイパーパラメータやアーキテクチャなどの実装の詳細については、付録Aを参照してください。 別段の記載がない限り、すべての曲線は、異なる種子を用いた3回のランの平均であり、斜線領域は平均の標準誤差である。 私たちは、ウェブサイト上のすべての環境で遊ぶ純粋に興味のあるエージェントのコードとビデオをリリースしました2。 0169>>1682018/08/27(月) 09:43:35.46ID:Zq8VRJ9K?2BP(0) 3.1 外的報酬のない好奇心に基づいた学習外的報酬を使用せずに、多数の環境に対する純粋な好奇心に基づく学習を拡大することから始めます。 We pick a total of 54 diverse simulated environments, as shown in Figure 1, 図1に示すように、合計54の多様なシミュレーション環境を選択し、 including 48 Atari games, Super Mario Bros., 2 Roboschool scenarios (learning Ant controller and Juggling), Two-player Pong, 2 Unity mazes (with and without a TV controlled by the agent). Super Mario Bros.、Roboschoolシナリオ2(Ant Control and Jugglingを学ぶ)、Two-player Pong、2つのUnity mazes(エージェントによって制御されたテレビの有無にかかわらず)を含む48のAtariゲームを含みます。 この大規模分析の目的は、以下の質問を調査することです。 (a)外的な報酬なしに、さまざまなゲームで純粋な好奇心に基づいたエージェントを実行すると、実際にはどうなりますか? (b)あなたはこれらのエージェントからどのような行動を期待できますか? (c)ダイナミクスを基礎とした好奇心における異なる特徴学習の変種がこれらの行動に及ぼす影響は何か?
カーブから最初に気がつくのは、ほとんどが上がっていることです。 これは、純粋な好奇心に基づいたエージェントが、トレーニング中に外的報酬を使用しなくても外部報酬を得ることを学ぶことができることを示しています。 外的報酬もエピソード信号の終わりもないエージェントは、ある場合には外的報酬での学習に匹敵する得点を得ることを学ぶことができることは注目に値する。 たとえば、「ブレイクアウト」では、パドルをボールに当てて消えるレンガにボールを当てるとゲームスコアが上昇し、打撃を受けたときにポイントが与えられます。 ブリックがボールによって連続して打たれればするほど、レンガのパターンが複雑になり、エージェントはより掘り下げて探索することができます。したがって、ポイントをバイプロダクトとして収集します。 さらに、エージェントの寿命がなくなると、レンガは以前に何度もエージェントに見られた均一な構造に再びリセットされ、したがって非常に予測可能であるため、エージェントは死によってリセットされるのを避けることによって好奇心をそそるために生きている。 0171>>1702018/08/27(月) 09:47:25.16ID:Zq8VRJ9K?2BP(0) これは予期しない結果であり、多くの一般的なRLテストベッドでは外部報酬が必要ないことを示唆している可能性があります。 ry (similar to architects, urban planners, gardeners, etc.) are これはゲームデザイナー(建築家、都市計画家、庭師などに似ている)が very good at setting up curriculums to guide agents through the ry 好奇心のような目的は、多くの人間が設計した環境[6,12,16,48]の外的報酬とうまく一致しています。 しかし、これは必ずしもそうではなく、時には好奇心をそそるエージェントがランダムエージェントよりも悪い場合もあります。 これは、外的報酬がエージェントの探索とほとんど相関しない場合、またはエージェントが効率的に探索できない場合に発生します(図8のゲーム「Atlantis」、「IceHockey」を参照)。 我々はさらに、学習者のスキルをよりよく理解するために、ウェブサイト上で利用可能なエージェントのゲームプレイビデオを参照することを読者に推奨する。
驚くべきことに、ランダムフィーチャ(RF)は、タスク間でかなり良好に動作し、学習されたフィーチャを使用するよりも優れていることがあります。 優れたパフォーマンスの理由の1つは、ランダムなフィーチャがフリーズ(安定)していることです。ターゲットの定常性のために、それらの上で学習されたダイナミクスモデルの方が簡単です。 一般に、ランダムな特徴は、視覚的観察が十分に単純な領域ではうまくいくはずであり、ランダムな特徴は、例えばアタリゲームのような生の信号に関する十分な情報を保存することができる。 興味深いことに、ランダムな特徴はトレーニングではうまくいくが、IDFの学習した特徴はMario Brosでより一般化されているように見える(詳細はセクション3.2を参照)。 0172>>1712018/08/27(月) 09:48:05.66ID:Zq8VRJ9K?2BP(0) VAE法も良好に機能しましたが、やや不安定でしたので、RFとIDFを実験に使用することにしました。 The detailed result in appendix Figure 8 compares IDF vs. 付録の詳細な結果図8は、IDFと RF across the full Atari suite. フルアタリスイート全体のRF。 学習された行動を定量化するために、我々は好奇心旺盛なエージェントをランダムに行動するエージェントと比較した。 我々は、IDFに興味のあるエージェントが、Atariゲームの75%でランダムエージェントよりも多くのゲーム報酬を集めることを発見しました.RF好奇心旺盛なエージェントは70%でより良くなります。 さらに、IDFはゲームの55%でRFより優れています。 全体として、ランダムなフィーチャとインバース・ダイナミクスのフィーチャが一般的にうまく機能しまし 付録の詳細。
図3: (a)Left:MarioのRFメソッドと異なるバッチサイズの比較。 結果は外的報酬を使用しない。 (b)センター:ジャグリング(Roboschool)環境におけるボールのバウンス数。 (c)右:マルチプレイPong環境におけるエピソード長の平均。 The discontinuous jump on the graph corresponds to the agent reaching a limit of the environment - グラフ上の不連続なジャンプは、エージェントが環境の限界に達することに対応します。 after a certain number of steps in the environment the Atari Pong emulator starts randomly cycling through background colors and becomes unresponsive to agent 's actions 環境内の特定のステップ数の後で、Atari Pongエミュレータは背景色をランダムに循環し始め、エージェントのアクションに応答しなくなります 0174>>1732018/08/27(月) 09:49:49.73ID:Zq8VRJ9K?2BP(0) 図3(a)の128と2048の並列環境スレッドを用いた訓練の比較を示す。 グラフから明らかなように、2048パラレル環境スレッドを使用した大きなバッチサイズのトレーニングは、より優れたパフォーマンスを発揮します。 実際には、エージェントはもっと多くのゲームを探索することができます。ゲームの11のレベルを発見し、秘密の部屋を見つけ、上司を倒すことができます。 この大規模実験のポイントは、サンプル効率についての主張ではなく、エージェントのトレーニングに関するパフォーマンスであるため、図のx軸はフレーム数ではなく、グラジエントステップ数です。 この結果は、基本的なRLアルゴリズム(この場合はPPO)のトレーニングが向上するにつれて、純粋に好奇心に基づくエージェントのパフォーマンスが向上することを示しています。 ビデオはウェブサイトにあります。 0175yamaguti2018/08/27(月) 09:53:04.76ID:Zq8VRJ9K?2BP(0) http://google.jp/?q=2ch+future+furou+cyouju+OR+tokuiten0176>>1742018/08/27(月) 09:53:40.98ID:Zq8VRJ9K?2BP(0) C)ロボスジャグリング 私たちはRoboschoolフレームワークからPong環境を修正して、1つのパドルと2つのボールを持つようにしました。 アクション空間は2次元で連続しており、アクション空間を次元ごとに5ビンに離散化し、合計25のアクションを与えました。 ポリシーネットワークと埋め込みネットワークの両方は、ピクセル観測空間で訓練されています(注:状態空間ではありません)。 この環境は、ゲームで使用される玩具物理学よりも制御が難しいですが、代理人は、ボールがその領域に入ったときに、ボールを傍受して打つことを学びます。 図3(b)に示すように、環境との相互作用のプロキシとしてボールのバウンス回数を監視しました。 プロジェクトのウェブサイトのビデオを参照してください。
E)2人用ポンでのマルチエージェントの好奇心 私たちは既に、純粋に好奇心に基づいたエージェントが報酬なしでいくつかのアタリゲームを学ぶことを知っていますが、その対戦相手がハードコーディングされた戦略を持つコンピュータエージェントであることが原因です。 両方のチームが互いに対して好奇心を持って遊ぶようにするとどうなりますか? 調べるには、ゲームの両面(パドルのパドル)が好奇心に基づいたエージェントによって制御されているTwo-player Pongゲームを行います。 エージェントの初期レイヤーを共有し、異なるアクションヘッドを持ちます。つまり、合計アクションスペースは、プレイヤー1のアクションとプレイヤー2のアクションのクロスプロダクトです。 0177>>1762018/08/27(月) 09:54:39.20ID:Zq8VRJ9K?2BP(0) エージェントが両面をプレイしているので、この文脈では外的報酬は無意味なので、代わりにエピソードの長さを示します。 結果を図3(c)に示す。 We see from the episode length that the agent learns to have more and longer rallies over time, learning to play pong without any teacher ? エピソードの長さから、エージェントが時間の経過と共にますます長くなる集会を学び、先生なしでポンをすることを学びます。 purely by curiosity on both sides. 純粋に両側の好奇心によって。 実際には、ゲーム集会は最終的には非常に長くなり、Atariエミュレータを破り、色が急激に変化し、プロットに示すようにポリシーがクラッシュします。
Sparse reward setting: In preliminary experiments, we picked 5 Atari games which have sparse rewards (as categorized by [3]), and compared extrinsic (classic RL) vs. 疎な報酬設定:予備実験では、疎な報酬([3]で分類される)を持つ5つのAtariゲームを選び、外的(古典的なRL)vs. extrinsic+intrinsic (ours) reward performance. 外因性+内在性(私たちの)報酬のパフォーマンス。 5つのうち4試合では、好奇心のボーナスによりパフォーマンスが向上します(付録の表2を参照してください)。 これは本書の焦点ではないことを強調したいと思います。これらの実験は完全性のために提供されています。 外因性(係数1.0)と内因性報酬(係数0.01)を調整することなく直接結合しました。 私たちは、内在的報酬と内在報酬を将来の方向性として最適に組み合わせる方法について質問を残します。 0182>>1812018/08/27(月) 09:58:05.09ID:Zq8VRJ9K?2BP(0) 4 関連作業
本質的な動機づけ: A family of approaches to intrinsic motivation reward内在的なモチベーション報酬へのアプローチのファミリー an agent based on prediction error [2, 27, 36, 42], prediction uncertainty [11, 44], or improvement [19, 34] of a forward dynamics model of the environment that gets trained along with the agent 's policy. エージェントの方針とともに訓練された環境のフォワードダイナミクスモデルの予測誤差[2,27,36,42]、予測不確実性[11,44]、または改善[19,34]に基づくエージェント。 A family of approaches to intrinsic motivation reward an agent based on prediction error , prediction uncertainty , or improvement of a forward dynamics model of the environment that gets trained along with the agent 's policy. 内在的動機づけへのアプローチの一群は、予測誤差、予測不確実性、またはエージェントの方針とともに訓練される環境の順動力学モデルの改善に基づいてエージェントに報酬を与える。 その結果、フォワードダイナミクスモデルの予測が困難な領域にエージェントが移動し、モデルはこれらの領域の予測を改善します。 この敵対的および非定常的な力学は複雑な挙動を引き起こす可能性がある。 この分野では、外部報酬が存在しない純粋な探査環境では、ほとんど進んでいません。 Of these mostly closely related are those that use a forward dynamics model of a feature space such as Stadie et al. これらの大部分は、Stadieらのような特徴空間の順動力学モデルを使用するものである。 [42] where they use autoencoder features, and Pathak et al. [42]オートエンコーダー機能を使用する場所、Pathak et al。 [27] where they use features trained [27]訓練された機能を使用する場所 逆動力学の仕事で。 これらは、セクション2.1で詳述されているVAEとIDFメソッドにほぼ対応しています。 0183>>1822018/08/27(月) 09:58:40.51ID:Zq8VRJ9K?2BP(0) 内在的な報酬には、州訪問回数の平滑化されたバージョンを使用することができる[3,9,24,47]。 Count-based methods have already shown very strong results when combining with extrinsic rewards such as setting the state of the art in the Atari game Montezuma 's Revenge [3], カウントベースの方法は、AtariのゲームMontezuma's Revenge [3]で最新の状態を設定するなどの外的な報酬と組み合わせると、非常に強力な結果を示しています。 and also showing significant exploration of the game without using the extrinsic reward. また、外的報酬を使用せずにゲームの重要な探索を示しています。 カウントベースのアプローチがダイナミクスベースのアプローチよりも好まれるべきである状況はまだ明確ではない。このペーパーでは、ダイナミクスベースのボーナスに重点を置くことを選択しました。 私たちの予備実験では、既存のカウントベースの実装では大規模な研究のためのスケールアップで十分な成功を収めていませんでした。
外的報酬や適性機能のない学習は、進化的コンピューティングでも広く研究されており、「新規性検索」と呼ばれている[17,18,43]。 そこでは、イベントの新規性は、距離を計算するためにイベントのいくつかの統計を使用して、以前のイベントの間で最も近い隣にイベントの距離として定義されることが多い。 この文献からの興味深い発見の1つは、多くの場合、フィットネスのためだけに最適化する以外には、はるかに興味深い解決策を見つけることができるということです。 0184>>1832018/08/27(月) 10:04:22.65ID:Zq8VRJ9K?2BP(0) Other methods of exploration are designed to work in combination with maximizing a reward function, such as those utilizing uncertainty about value function estimates [5, 23], or those using perturbations of the policy for exploration [8, 29]. 他の探査方法は、価値関数推定値に関する不確実性を利用する報酬関数や探索のための方針の摂動を用いる報酬関数などの報酬関数を最大化することと組み合わせて機能するように設計されている[8]、[29]。 Schmidhuber [37]とOudeyer [25]、OudeyerとKaplan [26]は、内在的動機づけへのアプローチに関する初期の研究のいくつかについて素晴らしいレビューを提供する。 0185>>1842018/08/27(月) 10:04:55.85ID:Zq8VRJ9K?2BP(0) Alternative methods of exploration include Sukhbaatar et al. 探査の代替方法には、Sukhbaatar et al。 [45] where they utilize an adversarial game between two agents for exploration. [45]彼らは探索のために2つのエージェントの間で敵対的なゲームを利用する。 In Gregor et al. Gregor et al。 [10], they optimize a quantity called empowerment which is a measurement of the control an agent has over the state. [10]、エージェントはエンパワーメントと呼ばれる量を最適化します。これは、エージェントがその状態を超えた制御の測定値です。 In a concurrent work, diversity is used as a measure to learn skills without reward functions Eysenbach et al. 並行作業では、報酬機能なしにスキルを習得するための手段として多様性が使用されます。Eysenbach et al。 [7]. [7]。 0186>>1852018/08/27(月) 10:06:03.78ID:Zq8VRJ9K?2BP(0) ランダムな特徴: この論文の発見の1つは、ランダムな特徴の驚くべき有効性であり、ランダム投影法およびより一般的にはランダムに初期化されたニューラルネットワークに関する著しい文献がある。 Much of the literature has focused on using random features for classification [14, 33, 49] where the typical finding is that whilst random features can work well for simpler problems, 文献の多くは、分類のためにランダムな特徴を用いることに焦点を当てている[14,33,49]。典型的な発見は、ランダムな特徴がより簡単な問題のためにうまくいく一方、 feature learning performs much better once the problem becomes sufficiently complex. 問題が十分に複雑になると、フィーチャラーニングははるかに良好に機能します。 literature has focused on using random features for classification where the typical finding is that whilst random features can work well for simpler problems, feature learning performs much better once the problem becomes sufficiently complex. 文献では、ランダムな特徴がより単純な問題に対してはうまくいくが、問題の学習がはるかに良好になるという典型的な発見がある場合、分類にランダムな特徴を用いることに集中している。 このパターンがダイナミクスに基づく探索にも当てはまると期待していますが、学習したフィーチャがMario Brosの斬新なレベルでより一般化するように見える予備的な証拠があります。
[2] J. AchiamおよびS. Sastry。 深い強化学習のためのサプライズベースの内的動機。 arXiv:1703.01732,2017。3,9 [3] M. Bellemare、S. Srinivasan、G. Ostrovski、T.Schaul、D. Saxton、およびR.Munos。 カウントベースの探索と固有のモチベーションの統一。 NIPSでは、2016年1月9日 [4] MG Bellemare、Y. Naddaf、J. Veness、およびM. Bowling。 アーケード学習環境:一般エージェントの評価プラットフォーム。 Journal of Artificial Intelligence Research、47:253279、jun 2013. 2 [5] RY Chen、J. Schulman、P. Abbeel、およびS. Sidor。 q-ensembles.arXiv:1706.01502、2017.によるUCBとインフォゲイン探査 [6] G. Costikyan。 ゲームの不確実性。 Mit Press、2013. 6、10 [7] B. Eysenbach、A. Gupta、J. Ibarz、およびS. Levine。 ダイバーシティはあなたが必要とするすべてです:報酬機能のない学習スキル。 arXivプレプリント、2018 [8] M. Fortunato, MG Azar, B. Piot, J. Menick, I. Osband, A. Graves, V. Mnih, R. Munos, D. Hassabis, O. Pietquin, C. Blundell, and S. Legg. M. Fortunato、MG Azar、B. Piot、J. Menick、I. Osband、A. Graves、V. Mnih、R. Munos、D. Hassabis、O. Pietquin、C. Blundell、およびS. Legg 。 探査のための騒々しいネットワーク。 arXiv:1706.10295,2017。9 [9] J. Fu、JD Co-Reyes、およびS. Levine。 EX2:深層強化学習のための模範モデルによる探査。 NIPS、2017. 9 [10] K. Gregor、DJ Rezende、およびD. Wierstra。 バリアント固有制御。 ICLRワークショップ、2017年9月 [11] R. Houthooft, X. Chen, Y. Duan, J. Schulman, F. De Turck, and P. Abbeel. R. Houthooft、X. Chen、Y. Duan、J. Schulman、F. De Turck、およびP. Abbeel。 Vime:探索情報を最大化する変分情報。 NIPSでは、2016年1月9日 [12] R. Hunicke、M. LeBlanc、およびR. Zubek。 Mda:ゲーム設計とゲーム研究への正式なアプローチ。 ゲームAIにおける課題に関するAAAIワークショップ(2004年6月10日) [13] S.IoffeおよびC.Szegedy。 バッチ正規化:内部共変量シフトを減らすことにより、深いネットワークトレーニングを加速します。 arXiv preprint arXiv:1502.03167,2015 4 0192>>1912018/08/27(月) 10:12:16.58ID:Zq8VRJ9K?2BP(0) [14] K. Jarrett、K. Kavukcuoglu、Y. LeCun、et al。 オブジェクト認識のための最善のマルチステージアーキテクチャとは何ですか? IEEE, 2009. 9コンピュータビジョン、2009年IEEE第12回国際会議、21462153ページ、IEEE、2009. 9 [15] DP KingmaとM. Welling。 変分ベイズの自動エンコーディング。 arXiv preprint arXiv:2013年2月3日、1312.6114 [16] N. Lazzaro。 ゲームをする理由: プレイヤーの経験でより多くの感情への4つの鍵。 Proceedings of GDC、2004. 6、10 [17] J. LehmanおよびKO Stanley。 新規性の探索を通じて問題を解決するためのオープンエンド性の活用。 ALIFE、2008. 9 [18] J.リーマンとKOスタンレー。 放棄する目的:進化だけで斬新さの探索。 進化的計算、2011. 9 [19] M. Lopes、T. Lang、M. Toussaint、およびP.-Y. Oudeyer. Oudeyer。 経験的に学習進展を推定することによるモデルベースの強化学習の探索。 NIPS、2012. 9 [20] M. Lopes、T. Lang、M. Toussaint、およびP.-Y. Oudeyer。 経験的に学習進展を推定することによるモデルベースの強化学習の探索。 NIPS、2012. 1 [21] V. Mnih、K. Kavukcuoglu、D. Silver、AA Rusu、J. Veness、MG Bellemare、A. Graves、M. Riedmiller、AK Fidjeland、G. Ostrovski、et al。 深層強化学習による人間のレベルの制御。 Nature、2015、1 [22] S。モハメドとDJ Rezende。 本質的に動機付けされた強化学習のための変分情報の最大化。 NIPSでは、2015年1月 [23] I. Osband、C. Blundell、A. Pritzel、およびB. Van Roy。 ブートストラップdqnによる深い探査。 NIPS、2016年9月 [24] G. Ostrovski、MG Bellemare、A.vd Oord、およびR.Munos。 神経密度モデルを用いたカウントベースの探索。 arXiv:1703.01310,2017。1,9 [25] P.-Y. Oudeyer。 好奇心に基づく学習の計算理論。 arXiv preprint arXiv:1802.10546、2018. 9
11
Page 12 0193>>1922018/08/27(月) 10:12:55.87ID:Zq8VRJ9K?2BP(0) [26] P.-Y. Oudeyer and F. Kaplan。 内在的な動機は何ですか? 計算上のアプローチの類型。 ニューロロボティクスの最前線、2009年1月9日 [27] D. Pathak, P. Agrawal, AA Efros, and T. Darrell. D.Patak、P. Agrawal、AA Efros、およびT. Darrell。 自己監視予測による好奇心に基づく探索。 ICMLでは、2017年1月2日、3日、4日、6日、9日 [28] D. Pathak, P. Mahmoudieh, G. Luo, P. Agrawal, D. Chen, Y. Shentu, E. Shelhamer, J. Malik, AA Efros, and T. Darrell. D. Pathak、P. Mahmoudieh、G. Luo、P. Agrawal、D. Chen、Y. Shentu、E. Shelhamer、J. Malik、AA Efros、およびT. Darrell。 ゼロショットの視覚的模倣。 ICLR、2018.1 [29] M.Plappert、R.Houthooft、P.Dhariwal、S.Sidor、RYChen、X.Chen、T.Asfour、P.Abbeel、およびM. Andrychowicz。 探索のためのパラメータ空間雑音。 arXiv:1706.01905,2017。9 [30] P. Poupart、N. Vlassis、J. Hoey、およびK. Regan。 離散ベイジアン強化学習の解析的解。 ICML、2006. 1 [31] DJ Rezende、S.Mohamed、およびD.Wierstra。 深い生成モデルにおける確率的逆伝播と近似推論。 arXiv preprint arXiv:1401.4082、2014。3 [32] EL Ryan、Richard; Deci。 内在的および外的な動機:古典的定義と新しい方向性。 現代教育心理学、2000. 1 [33] AM Saxe, PW Koh, Z. Chen, M. Bhand, B. Suresh, and AY Ng. AM Saxe、PW Koh、Z. Chen、M. Bhand、B. Suresh、およびAY Ng。 ランダムウェイトと教師なしの特徴学習。 ICML、10891096ページ、2011年。 0194>>1932018/08/27(月) 10:13:33.41ID:Zq8VRJ9K?2BP(0) [34] J. Schmidhuber. 。 奇妙なモデル構築制御システム。 Neural Networks、1991年、IEEE国際共同会議、14581463ページ、IEEE、1991. 9 [35] J. Schmidhuber。 モデル構築のニューラルコントローラに好奇心と退屈を実現する可能性。 動物から動物へ:適応行動のシミュレーションに関する第1回国際会議の議事録、1991. 1 [36] J. Schmidhuber。 モデル構築のニューラルコントローラに好奇心と退屈を実現する可能性、1991. 9 [37] J. Schmidhuber。 創造性、楽しい、そして本質的な動機づけの公式理論(19902010)。 自律的精神発達に関するIEEEの取り組み、2010. 9 [38] J. Schulman、F. Wolski、P. Dhariwal、A. Radford、およびO. Klimov。 近接ポリシー最適化アルゴリズム。 arXiv preprint arXiv:1707.06347, 2017. 4 arXiv preprint arXiv:1707.06347,2017 [39] J. Schulman、F. Wolski、P. Dhariwal、A. Radford、およびO. Klimov。 近接ポリシー最適化アルゴリズム。 arXiv preprint arXiv:1707.06347、2017. 2 [40] SP Singh、AG Barto、N. Chentanez。 本質的に動機付けられた強化学習。 NIPSでは、2005年1月 [41] L.スミスとM.ガッサー。 具体的な認知の発達:赤ちゃんからの6回のレッスン。 人工生命、2005年1月 [42] BC Stadie、S。Levine、およびP. Abbeel。 深い予測モデルによる強化学習の探求を促進する。 NIPSワークショップ、2015年.2,9 [43] KO StanleyおよびJ. Lehman。 なぜ偉大さが計画できないのか:目的の神話。 Springer、2015。9 [44] S. StillおよびD. Precup。 An information-theoretic approach to curiosity-driven reinforcement learning. 好奇心に基づく強化学習への情報理論的アプローチ。 Theory in Biosciences, 2012. 9バイオサイエンス理論、2012. 9 [45] S. Sukhbaatar, I. Kostrikov, A. Szlam, and R. Fergus. [45] S. Sukhbaatar、I. Kostrikov、A. Szlam、およびR. Fergus。 Intrinsic motivation and automatic curricula via asymmetric self-play. 内在的な動機づけと、非対称セルフプレイによる自動カリキュラム。 In ICLR, 2018. 9 ICLR、2018年9月 0195>>1942018/08/27(月) 10:14:07.88ID:Zq8VRJ9K?2BP(0) [46] RS Sutton and AG Barto. [46] RS SuttonおよびAG Barto。 Reinforcement learning: An introduction. 強化学習:導入。 MIT press Cambridge, 1998. 4 MITプレスケンブリッジ、1998。4 [47] H. Tang, R. Houthooft, D. Foote, A. Stooke, X. Chen, Y. Duan, J. Schulman, F. De Turck, and P. Abbeel. H. Tang、R.Houthooft、D.Foote、A.Stooke、X.Chen、Y.Duan、J.Schulman、F.De Turck、およびP. Abbeel。 #Exploration:深層強化学習のためのカウントに基づく探索の研究。 神経情報処理システムの進歩、2017. 9 [48] P. Wouters、H. Van Oostendorp、R. Boonekamp、およびE. Van der Spek。 バックストーリーと予兆を実装することで、魅力的で効果的な真剣なゲームを作成する際のゲームの談話分析と好奇心の役割。 コンピュータとの交流、2011年6月、10 [49] Z. Yang, M. Moczulski, M. Denil, N. de Freitas, A. Smola, L. Song, and Z. Wang. Z. Yang、M. Moczulski、M. Denil、N. de Freitas、A. Smola、L. Song、およびZ. Wang。 ディープフライドコンベット。 In Proceedings of the IEEE International Conference on Computer Vision, pages 14761483, 2015. 9 IEEEビジョンに関するIEEE国際会議予稿集、14761483、2015。
Inverse Dynamics features ? 逆動力学の特徴 ランダムエージェント Random CNN features ? ランダムCNN機能
図8: 48個のAtariゲームで、純粋な好奇心に基づいた探索(外的報酬もエピソード終了信号もない)。 私たちは、外的帰還やエピソード信号の終わりにアクセスできないエージェントにもかかわらず、好奇心に基づくエージェントの外的帰還がしばしば増加することを観察します。 In multiple environments, 複数の環境では、 the performance of the curiosity-driven agents is significantly better than that of a random agent, although there are environments where the behavior of the agent is close to random, or in fact seems to minimize the return, rather than maximize it. エージェントの行動がランダムに近いか、実際には最大限にするのではなく、リターンを最小限に抑えるような環境が存在するにもかかわらず、好奇心に基づいたエージェントのパフォーマンスはランダムエージェントのパフォーマンスよりも大幅に優れています。 大部分の訓練プロセスでは、RFは環境の約67%でランダムエージェントよりも優れていますが、IDFは環境の約71%でランダムエージェントよりも優れています。 0200>>1992018/08/27(月) 10:17:54.98ID:Zq8VRJ9K?2BP(0) Reward Gravitar Freeway Venture PrivateEye MontezumaRevenge ? Gravitar Freewayベンチャーに報酬を与えるPrivateEye Montezuma Revenge Ext Only 999.3±220.7 33.3±0.6 0±0 5020.3±395 1783±691.7 Ext + Int 1165.1±53.6 32.8±0.3 416±416 3036.5±952.1 2504.6±4.6
メモリー検索の依存性 ? いくつ ry では、セマ ry から情報を取 ry リが以前に短時間アクセスされた場合に短 ry ことが示 ry 。 情報をセマンティックカテゴリから取得する時間が、そのカテ がもしも短時間前にアクセスされていた場合 短縮される事が、いくつかの研究では示され ます ? たとえば、Collins ry は、「 ry 」などの質 ry。 Collins and Quillian(1970)は、例えば、「カナリアは鳥 か?」といった質問に答えるのに必要な時間を示しています 前回のトライアルでカナリアに関する情報にアクセスした場合、600ミリ秒も減 。 多少異なるパラダイムを使用して、マイヤーとシュヴァネヴェルト(マイヤー&シュヴァネヴェルト、1971年;メイヤー、シュヴァネヴェルト&ラディ、1972年、シュ &メ 、1973年;メ 、1973年)は同じことを示しています これらの実験では、Sは文字列を単語または非単語として分類 要 ? 一般的な発見は、Sが意味的に類似していない単語とは対照的に3つの意味的に類似した単語を分 ry り速い ry 。 そこでの一般的発見は、意味的非類似なとは対照的な意味的類似な 3 単語それらを被験者が単に分類した場合、文字列を単語として分類する反応時間はより早い こと したがって、 、「バター」の前に「パン」が付いている場合は、「ナース」が前にある場合よりも、「バター」を単語として分類 時間が速
このような結果を処理 ために、2つの一般的なクラスのモデルが提案されています ロケーションシフトモデル(Meyer&Schvaneveldt、1971)は、Sが特定のカテ のメンバーの処理を終了し、次にシフトして2番目のカテ の処理を開始する必要 場合、シフト時間は2つのカテ 間の意味的距離に依存すると想定 。 ? 一方、 ィブ化モデルは、カテ ry 、処 ry 的に類 ry 他のア が「興奮」または「 ィブ化」されるこ ry 。 アクティべーションモデルは、一方、カテ 内のアイテムが処理されるときに、その処理される情報と意味的類似している範囲で、他アイテムが「興奮化」または「アクティべート」される ことを前提とし ます さらに2つの想定が行われます。1つ目(Warren、1970年)は、アクティブ化が時間とともに減衰すること、2つ目は、 ィブ化されたアイテムは非アクティブ化されたアイテムよりも容易にアクセスできること 。 0222オーバーテクナナシー2021/09/05(日) 16:13:54.52ID:A+t1x18S 本実験の結果は、Meyer et al(1972)とLoftus(1973)のデータと合わせて、位置シフトモデルを非承認にし、活性化モデルをサポート 。 ? ry な比 ry 。 これらすべての実験には、次のような各比較が含まれます ? Tが、処理される時間が対象の従 数であるター 報を表す ry 。 処理時間を対象従属変数としたターゲット情報を T が表すとします ? Rが意味的にTに関 ry が意味的にTに関連 ry 表すようにします。 T に意味的関連する情報をR が表し、最後にU1とU2が T に意味的関連しない情報を表すとします ? 次の3つの条件を検討してください。 ここで 3 条件を検討します :