知能研究スレ2©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
0001オーバーテクナナシー 転載ダメ©2ch.net
垢版 |
2016/12/11(日) 07:08:46.32ID:p6adyiEV
  三           三三
      /;:"ゝ  三三  f;:二iュ  何でこんなになるまで放っておいたんだ!
三   _ゞ::.ニ!    ,..'´ ̄`ヽノン
    /.;: .:}^(     <;:::::i:::::::.::: :}:}  三三
  〈::::.´ .:;.へに)二/.::i :::::::,.イ ト ヽ__
  ,へ;:ヾ-、ll__/.:::::、:::::f=ー'==、`ー-="⌒ヽ   ←上坂すみれ
. 〈::ミ/;;;iー゙ii====|:::::::.` Y ̄ ̄ ̄,.シ'=llー一'";;;ド'
  };;;};;;;;! ̄ll ̄ ̄|:::::::::.ヽ\-‐'"´ ̄ ̄ll

          oノ oノ
          |  |  三
 _,,..-―'"⌒"~⌒"~ ゙゙̄"'''ョ  ミ
゙~,,,....-=-‐√"゙゙T"~ ̄Y"゙=ミ    |`----|
T  |   l,_,,/\ ,,/l  |
,.-r '"l\,,j  /  |/  L,,,/
,,/|,/\,/ _,|\_,i_,,,/ /
0174>>173
垢版 |
2018/08/27(月) 09:49:49.73ID:Zq8VRJ9K?2BP(0)

図3(a)の128と2048の並列環境スレッドを用いた訓練の比較を示す。
グラフから明らかなように、2048パラレル環境スレッドを使用した大きなバッチサイズのトレーニングは、より優れたパフォーマンスを発揮します。
実際には、エージェントはもっと多くのゲームを探索することができます。ゲームの11のレベルを発見し、秘密の部屋を見つけ、上司を倒すことができます。
この大規模実験のポイントは、サンプル効率についての主張ではなく、エージェントのトレーニングに関するパフォーマンスであるため、図のx軸はフレーム数ではなく、グラジエントステップ数です。
この結果は、基本的なRLアルゴリズム(この場合はPPO)のトレーニングが向上するにつれて、純粋に好奇心に基づくエージェントのパフォーマンスが向上することを示しています。
ビデオはウェブサイトにあります。
0176>>174
垢版 |
2018/08/27(月) 09:53:40.98ID:Zq8VRJ9K?2BP(0)

C)ロボスジャグリング
私たちはRoboschoolフレームワークからPong環境を修正して、1つのパドルと2つのボールを持つようにしました。
アクション空間は2次元で連続しており、アクション空間を次元ごとに5ビンに離散化し、合計25のアクションを与えました。
ポリシーネットワークと埋め込みネットワークの両方は、ピクセル観測空間で訓練されています(注:状態空間ではありません)。
この環境は、ゲームで使用される玩具物理学よりも制御が難しいですが、代理人は、ボールがその領域に入ったときに、ボールを傍受して打つことを学びます。
図3(b)に示すように、環境との相互作用のプロキシとしてボールのバウンス回数を監視しました。
プロジェクトのウェブサイトのビデオを参照してください。

D) Roboschool Ant Robot ? D)Roboschoolアリロボット
また、トラック上に8つの制御可能なジョイントを持つAntで構成されるAnt環境を使用することも検討しました。
私たちは再び行動空間と訓練された政策とネットワークを生のピクセル(状態空間ではない)に離散化しました。
しかし、この場合、外的距離報酬尺度が競馬場に沿って進行するので探査を測定することは容易ではなかったが、純粋に興味のあるエージェントは任意の方向に自由に移動することができる。
私たちは、歩くような行動が純粋に好奇心に基づく訓練から出てくることを見出します。
私たちは、エージェントが環境と意味のあるやりとりをしていることを示す結果ビデオを読者に紹介します。

E)2人用ポンでのマルチエージェントの好奇心
私たちは既に、純粋に好奇心に基づいたエージェントが報酬なしでいくつかのアタリゲームを学ぶことを知っていますが、その対戦相手がハードコーディングされた戦略を持つコンピュータエージェントであることが原因です。
両方のチームが互いに対して好奇心を持って遊ぶようにするとどうなりますか?
調べるには、ゲームの両面(パドルのパドル)が好奇心に基づいたエージェントによって制御されているTwo-player Pongゲームを行います。
エージェントの初期レイヤーを共有し、異なるアクションヘッドを持ちます。つまり、合計アクションスペースは、プレイヤー1のアクションとプレイヤー2のアクションのクロスプロダクトです。
0177>>176
垢版 |
2018/08/27(月) 09:54:39.20ID:Zq8VRJ9K?2BP(0)

エージェントが両面をプレイしているので、この文脈では外的報酬は無意味なので、代わりにエピソードの長さを示します。
結果を図3(c)に示す。
We see from the episode length that the agent learns to have more and longer rallies over time, learning to play pong without any teacher ?
エピソードの長さから、エージェントが時間の経過と共にますます長くなる集会を学び、先生なしでポンをすることを学びます。
purely by curiosity on both sides.
純粋に両側の好奇心によって。
実際には、ゲーム集会は最終的には非常に長くなり、Atariエミュレータを破り、色が急激に変化し、プロットに示すようにポリシーがクラッシュします。

7


Page 8
0178>>177
垢版 |
2018/08/27(月) 09:55:21.59ID:Zq8VRJ9K?2BP(0)

3.2
スーパーマリオブラザーズの新レベルでの一般化
前のセクションでは、純粋に好奇心を持ったエージェントが効率的に探索し、ゲームでのゲームの振る舞い、Antでのウォーキングの振る舞いなどの有用なスキルを学ぶことを学ぶことができたことを示しました。
これまでは、エージェントが訓練された環境でこれらのスキルが示されていました。
しかし、無償学習を開発することの利点の1つは、新しい環境に一般化を示すことによって、報酬機能を持たない豊富な「未ラベル」環境を利用できるようにすることです。

これをテストするには、まずMario Brosのレベル1-1で好奇心を使ってエージェントを事前にトレーニングします。
私たちは、RFとIDFベースの好奇心惹起剤が、Marioの新しいレベルに一般化することがどれだけうまくいくかを調べます。
図4では、Marioの1つのレベルのトレーニングと別のテストレベルのfinetuningの2つの例を示し、テストレベルのスクラッチからの学習と比較します。
すべての場合のトレーニング信号は好奇心の報酬だけです。
最初のケースでは、レベル1-1からレベル1-2まで、環境のグローバル統計が一致します(どちらもゲームの「日の環境」、つまり青い背景です)が、レベルには異なる敵、ジオメトリ、難易度があります。
このシナリオでは、両方の方法から強い転送があることがわかります。
しかし、レベル1-1からレベル1-3までの第2のシナリオでは、転送性能は弱い。
これは、図4に示すように、昼間から夜間に色彩がシフトするため、後者のレベルのペアリングでは問題がかなり困難になるためです。

さらに、IDFで学習されたフィーチャは、最初のケースではランダムフィーチャ転送と両方のケースで転送されますが、2番目のシナリオでは翌日から転送されません。
これらの結果は、ランダムな特徴が学習環境で良好に機能する一方、学習された特徴は新規なレベルに対してよりよく一般化するようであることを示唆し得る。
しかし、これは、将来、さまざまな環境でより多くの分析が必要になります。
全体として、私たちは好奇心で学んだスキルが新しい環境で効果的に探索するのに役立つという有力な証拠を見つけます。
0179>>178
垢版 |
2018/08/27(月) 09:56:11.49ID:Zq8VRJ9K?2BP(0)

IDFスクラッチ
IDF転送
RFスクラッチ
RF転送

0 10 20 30
0 250 500 750 1000 1250 1500 1750 2000

World 1 level 1 to world 2 level 1 ? 世界1レベル1〜世界2レベル1
0 10 20 30
0 250 500 750 1000 1250 1500 1750 2000
世界1レベル1〜世界3レベル1
フレーム数(単位:百万)
エピソードごとの外来報酬

図4:
マリオ一般化実験。
左側にはレベル1-1からレベル1-2への転送結果が表示され、右側にはレベル1-1からレベル1-3への転送結果が表示されます。
各プロットの下に、ソース環境とターゲット環境のマップがあります。
すべてのエージェントは、外的報酬なしで訓練されています。
0180>>179
垢版 |
2018/08/27(月) 09:56:52.04ID:Zq8VRJ9K?2BP(0)

フレーム数(単位:百万)
エピソードごとの外来報酬

Unity迷路

ランダムCNN機能
外来のみ
Inverse dynamics features ? 逆動特性

図5:端末外因+好奇心の報酬で訓練している間のユニティ環境における平均外因的報酬。
外的報酬のみのトレーニングの曲線は常にゼロであることに注意してください。


3.3スパースな外部報酬による好奇心
これまでのすべての実験では、私たちのエージェントは、純粋に好奇心によって動かされるいかなる外的報酬もなく、有用な技能を習得できることを示しました。
しかし、多くのシナリオでは、エージェントが関心のある特定のタスクを実行することが必要な場合があります。
これは、通常、外的報酬を定義することによってエージェントに伝達されます。
報酬が密集している場合(たとえば、フレームごとのゲームの得点)、クラシックなRLはうまく機能し、本質的な報酬は一般的にパフォーマンスに役立ちません。
しかし、高密度報酬を設計することは困難な工学上の問題です(詳細は序論を参照してください)。
このセクションでは、疎外された、または単なる端末の報酬の存在下で、好奇心がエージェントがどのようにタスクを実行するのに役立つかを評価します。

端末報酬設定:
多くの実際の問題、例えばナビゲーションの場合、唯一の端末報酬が利用可能であり、古典的なRLは典型的には貧弱に動作する。
したがって、我々は9つの部屋と疎な端末報酬を持つUnity ML-agentフレームワークで設計された迷路の3Dナビゲーションを検討する。

8
0181>>180
垢版 |
2018/08/27(月) 09:57:26.92ID:Zq8VRJ9K?2BP(0)

Page 9

前方への移動、15度左を見る、15度右を見る、そして何も操作しない離散的なアクション空間があります。
エージェントは部屋1から開始します。部屋1はエージェント9の目標を含む部屋9から最も離れています。
私たちは、外的報酬で訓練されたエージェント(目標に達すると+1、それ以外の場合は0)を外的+内的報酬で訓練されたエージェントと比較します。
外来のみ(古典的なRL)は、すべての試行において目標を見つけることは決してありません。意味のある勾配を得ることは不可能です。
外因性+内在性は、典型的に毎回報酬を得ることに集中するのに対し、
図5の結果は、バニラPPO、PPO + IDF-好奇心およびPPO + RF-好奇心の結果を示す。

Sparse reward setting: In preliminary experiments, we picked 5 Atari games which have sparse rewards (as categorized by [3]), and compared extrinsic (classic RL) vs.
疎な報酬設定:予備実験では、疎な報酬([3]で分類される)を持つ5つのAtariゲームを選び、外的(古典的なRL)vs.
extrinsic+intrinsic (ours) reward performance.
外因性+内在性(私たちの)報酬のパフォーマンス。
5つのうち4試合では、好奇心のボーナスによりパフォーマンスが向上します(付録の表2を参照してください)。
これは本書の焦点では​​ないことを強調したいと思います。これらの実験は完全性のために提供されています。
外因性(係数1.0)と内因性報酬(係数0.01)を調整することなく直接結合しました。
私たちは、内在的報酬と内在報酬を将来の方向性として最適に組み合わせる方法について質問を残します。
0182>>181
垢版 |
2018/08/27(月) 09:58:05.09ID:Zq8VRJ9K?2BP(0)

4
関連作業

本質的な動機づけ:
A family of approaches to intrinsic motivation reward内在的なモチベーション報酬へのアプローチのファミリー
an agent based on prediction error [2, 27, 36, 42], prediction uncertainty [11, 44], or improvement [19, 34] of a forward dynamics model of the environment that gets trained along with the agent 's policy.
エージェントの方針とともに訓練された環境のフォワードダイナミクスモデルの予測誤差[2,27,36,42]、予測不確実性[11,44]、または改善[19,34]に基づくエージェント。
A family of approaches to intrinsic motivation reward an agent based on prediction error , prediction uncertainty , or improvement of a forward dynamics model of the environment that gets trained along with the agent 's policy.
内在的動機づけへのアプローチの一群は、予測誤差、予測​​不確実性、またはエージェントの方針とともに訓練される環境の順動力学モデルの改善に基づいてエージェントに報酬を与える。
その結果、フォワードダイナミクスモデルの予測が困難な領域にエージェントが移動し、モデルはこれらの領域の予測を改善します。
この敵対的および非定常的な力学は複雑な挙動を引き起こす可能性がある。
この分野では、外部報酬が存在しない純粋な探査環境では、ほとんど進んでいません。
Of these mostly closely related are those that use a forward dynamics model of a feature space such as Stadie et al.
これらの大部分は、Stadieらのような特徴空間の順動力学モデルを使用するものである。
[42] where they use autoencoder features, and Pathak et al.
[42]オートエンコーダー機能を使用する場所、Pathak et al。
[27] where they use features trained
[27]訓練された機能を使用する場所
逆動力学の仕事で。
これらは、セクション2.1で詳述されているVAEとIDFメソッドにほぼ対応しています。
0183>>182
垢版 |
2018/08/27(月) 09:58:40.51ID:Zq8VRJ9K?2BP(0)

内在的な報酬には、州訪問回数の平滑化されたバージョンを使用することができる[3,9,24,47]。
Count-based methods have already shown very strong results when combining with extrinsic rewards such as setting the state of the art in the Atari game Montezuma 's Revenge [3],
カウントベースの方法は、AtariのゲームMontezuma's Revenge [3]で最新の状態を設定するなどの外的な報酬と組み合わせると、非常に強力な結果を示しています。
and also showing significant exploration of the game without using the extrinsic reward.
また、外的報酬を使用せずにゲームの重要な探索を示しています。
カウントベースのアプローチがダイナミクスベースのアプローチよりも好まれるべきである状況はまだ明確ではない。このペーパーでは、ダイナミクスベースのボーナスに重点を置くことを選択しました。
私たちの予備実験では、既存のカウントベースの実装では大規模な研究のためのスケールアップで十分な成功を収めていませんでした。

外的報酬や適性機能のない学習は、進化的コンピューティングでも広く研究されており、「新規性検索」と呼ばれている[17,18,43]。
そこでは、イベントの新規性は、距離を計算するためにイベントのいくつかの統計を使用して、以前のイベントの間で最も近い隣にイベントの距離として定義されることが多い。
この文献からの興味深い発見の1つは、多くの場合、フィットネスのためだけに最適化する以外には、はるかに興味深い解決策を見つけることができるということです。
0184>>183
垢版 |
2018/08/27(月) 10:04:22.65ID:Zq8VRJ9K?2BP(0)

Other methods of exploration are designed to work in combination with maximizing a reward function, such as those utilizing uncertainty about value function estimates [5, 23], or those using perturbations of the policy for exploration [8, 29].
他の探査方法は、価値関数推定値に関する不確実性を利用する報酬関数や探索のための方針の摂動を用いる報酬関数などの報酬関数を最大化することと組み合わせて機能するように設計されている[8]、[29]。
Schmidhuber [37]とOudeyer [25]、OudeyerとKaplan [26]は、内在的動機づけへのアプローチに関する初期の研究のいくつかについて素晴らしいレビューを提供する。
0185>>184
垢版 |
2018/08/27(月) 10:04:55.85ID:Zq8VRJ9K?2BP(0)

Alternative methods of exploration include Sukhbaatar et al.
探査の代替方法には、Sukhbaatar et al。
[45] where they utilize an adversarial game between two agents for exploration.
[45]彼らは探索のために2つのエージェントの間で敵対的なゲームを利用する。
In Gregor et al.
Gregor et al。
[10], they optimize a quantity called empowerment which is a measurement of the control an agent has over the state.
[10]、エージェントはエンパワーメントと呼ばれる量を最適化します。これは、エージェントがその状態を超えた制御の測定値です。
In a concurrent work, diversity is used as a measure to learn skills without reward functions Eysenbach et al.
並行作業では、報酬機能なしにスキルを習得するための手段として多様性が使用されます。Eysenbach et al。
[7].
[7]。
0186>>185
垢版 |
2018/08/27(月) 10:06:03.78ID:Zq8VRJ9K?2BP(0)

ランダムな特徴:
この論文の発見の1つは、ランダムな特徴の驚くべき有効性であり、ランダム投影法およびより一般的にはランダムに初期化されたニューラルネットワークに関する著しい文献がある。
Much of the literature has focused on using random features for classification [14, 33, 49] where the typical finding is that whilst random features can work well for simpler problems,
文献の多くは、分類のためにランダムな特徴を用いることに焦点を当てている[14,33,49]。典型的な発見は、ランダムな特徴がより簡単な問題のためにうまくいく一方、
feature learning performs much better once the problem becomes sufficiently complex.
問題が十分に複雑になると、フィーチャラーニングははるかに良好に機能します。
literature has focused on using random features for classification where the typical finding is that whilst random features can work well for simpler problems, feature learning performs much better once the problem becomes sufficiently complex.
文献では、ランダムな特徴がより単純な問題に対してはうまくいくが、問題の学習がはるかに良好になるという典型的な発見がある場合、分類にランダムな特徴を用いることに集中している。
このパターンがダイナミクスに基づく探索にも当てはまると期待していますが、学習したフィーチャがMario Brosの斬新なレベルでより一般化するように見える予備的な証拠があります。

9
0187>>186
垢版 |
2018/08/27(月) 10:06:35.97ID:Zq8VRJ9K?2BP(0)

Page 10

5
討論

私たちのエージェントは純粋に好奇心を持って訓練され、有益な行動を学ぶことができることを示しました。
(a)エージェントは報酬を使わずに多くのアタリゲームをプレイできます。
(b)マリオは報酬なしで11レベル以上を越えることができる。
(c)Ant環境で起こったような行動を歩く。
(d)Robo-school環境における挙動のようなジャグリング
(e)両者の好奇心に基づくエージェントを用いたTwo-player Pongでのラリー作成行動。
しかし、環境の探索が外的報酬に対応していないAtariゲームがあるので、これは必ずしも真実ではありません。

より一般的には、これらの結果は、人間によって設計された環境では、外的報酬は、しばしば新規性を求めるという目的と一致していることを示唆している。
ゲームデザイナーは、ゲームをプレイしながらユーザーを誘導するためのカリキュラムを設定し、その理由を説明します。好奇心のような目的は、多くの人間が設計したゲームでは外的な報酬とうまく一致します[6,12,16,48]。
0188>>187
垢版 |
2018/08/27(月) 10:07:25.34ID:Zq8VRJ9K?2BP(0)

0.0 0.2 0.4 0.6 0.8 1.0
0 1 2 3 4 5 6 7 8

フレーム数(単位:百万)
エピソードごとの外来報酬

テレビをオフにしたRF
TV付きのRF
IDFでテレビをオフにする
TV付きIDF

図6:
3.3節では、ユニティ環境に雑音の多いTVを追加します。
私たちはIDFとRFをテレビの有無にかかわらず比較します。


予測誤差に基づく好奇心の限界:
より深刻な潜在的な限界は、確率論的ダイナミクスの取り扱いです。
環境内の遷移がランダムである場合、完全な力学モデルであっても、予想される報酬は遷移のエントロピーであり、エージェントはエントロピーが最も高い遷移を求める。
環境が本当にランダムではなくても、学習アルゴリズムが悪いため予測不可能であっても、貧弱なモデルクラスまたは部分的な観測可能性はまったく同じ問題につながります。
私たちはゲームの実験でこの効果を観察しなかったので、その点を説明する環境を設計しました。
0189>>188
垢版 |
2018/08/27(月) 10:07:53.87ID:Zq8VRJ9K?2BP(0)

我々は3.3節の迷路に戻り、ノイズの多いTV問題と呼ばれる共通の思考実験を経験的に検証する。
そのアイデアは、アクションが取られたときにチャンネルをランダムに変更するテレビのような環境におけるエントロピーのローカルソースは、エージェントにとって不可欠な誘因であることがわかっているはずです。
私たちは文字通りこの思考実験を行い、チャンネルを変更するアクションとともに迷路にテレビを追加します。
図6では、ノイズの多いTVの追加がIDFとRFのパフォーマンスにどのように影響するかを示しています。
予想どおり、テレビの存在は学習を大幅に遅くしますが、実験を長時間実行すると、エージェントは時には外的報酬を一貫して得ることに集中することがあります。
経験的には、確率論が問題になる可能性があることを経験的に示しているので、今後の研究ではこの問題を効率的に扱うことが重要です。

Future Work:今後の仕事:
私たちは、報酬機能やエピソードの終わりの信号なしに、多様な環境にわたる重要でない行動を学ぶことができるシンプルでスケーラブルなアプローチを提示しました。
この論文の驚くべき発見の1つは、ランダムなフィーチャがかなり機能することですが、学習されたフィーチャはより一般化するように見えます。
環境が複雑になると、学習機能は重要になると考えていますが、今後はそれを探求していく予定です。
しかし、私たちのより広い目標は、関心のある課題のパフォーマンスを向上させるために、多くの未ラベル(すなわち、報酬機能を持たない)環境を利用できることを示すことです。
この目標を前提にすると、一般的な報酬機能を備えた環境でパフォーマンスを示すことは、最初のステップにすぎません。将来の作業では、ラベルのない環境からラベルの付いた環境への移行を調査できます。
0190>>189
垢版 |
2018/08/27(月) 10:09:00.93ID:Zq8VRJ9K?2BP(0)

謝辞

私たちはUnity環境、Phillip Isola、Alex Nicholsの助けを借りてChris Luに感謝の意を表する。
実りある議論のために、BAIRとOpenAIのメンバーに感謝します。
DPはFacebookの卒業生のフェローシップによってサポートされています。

参考文献

[1] Unity ML-agents. ? [1]統一MLエージェント。
http://github.com/Unity-Technologies/ml-agents
2

10
0191>>190
垢版 |
2018/08/27(月) 10:11:18.00ID:Zq8VRJ9K?2BP(0)

Page 11

[2] J. AchiamおよびS. Sastry。 深い強化学習のためのサプライズベースの内的動機。
arXiv:1703.01732,2017。3,9
[3] M. Bellemare、S. Srinivasan、G. Ostrovski、T.Schaul、D. Saxton、およびR.Munos。
カウントベースの探索と固有のモチベーションの統一。 NIPSでは、2016年1月9日
[4] MG Bellemare、Y. Naddaf、J. Veness、およびM. Bowling。 アーケード学習環境:一般エージェントの評価プラットフォーム。
Journal of Artificial Intelligence Research、47:253279、jun 2013. 2
[5] RY Chen、J. Schulman、P. Abbeel、およびS. Sidor。
q-ensembles.arXiv:1706.01502、2017.によるUCBとインフォゲイン探査
[6] G. Costikyan。 ゲームの不確実性。 Mit Press、2013. 6、10
[7] B. Eysenbach、A. Gupta、J. Ibarz、およびS. Levine。
ダイバーシティはあなたが必要とするすべてです:報酬機能のない学習スキル。 arXivプレプリント、2018
[8] M. Fortunato, MG Azar, B. Piot, J. Menick, I. Osband, A. Graves, V. Mnih, R. Munos, D. Hassabis, O. Pietquin, C. Blundell, and S. Legg.
M. Fortunato、MG Azar、B. Piot、J. Menick、I. Osband、A. Graves、V. Mnih、R. Munos、D. Hassabis、O. Pietquin、C. Blundell、およびS. Legg 。
探査のための騒々しいネットワーク。 arXiv:1706.10295,2017。9
[9] J. Fu、JD Co-Reyes、およびS. Levine。 EX2:深層強化学習のための模範モデルによる探査。 NIPS、2017. 9
[10] K. Gregor、DJ Rezende、およびD. Wierstra。 バリアント固有制御。 ICLRワークショップ、2017年9月
[11] R. Houthooft, X. Chen, Y. Duan, J. Schulman, F. De Turck, and P. Abbeel.
R. Houthooft、X. Chen、Y. Duan、J. Schulman、F. De Turck、およびP. Abbeel。
Vime:探索情報を最大化する変分情報。 NIPSでは、2016年1月9日
[12] R. Hunicke、M. LeBlanc、およびR. Zubek。
Mda:ゲーム設計とゲーム研究への正式なアプローチ。 ゲームAIにおける課題に関するAAAIワークショップ(2004年6月10日)
[13] S.IoffeおよびC.Szegedy。 バッチ正規化:内部共変量シフトを減らすことにより、深いネットワークトレーニングを加速します。
arXiv preprint arXiv:1502.03167,2015 4
0192>>191
垢版 |
2018/08/27(月) 10:12:16.58ID:Zq8VRJ9K?2BP(0)

[14] K. Jarrett、K. Kavukcuoglu、Y. LeCun、et al。 オブジェクト認識のための最善のマルチステージアーキテクチャとは何ですか?
IEEE, 2009. 9コンピュータビジョン、2009年IEEE第12回国際会議、21462153ページ、IEEE、2009. 9
[15] DP KingmaとM. Welling。 変分ベイズの自動エンコーディング。 arXiv preprint arXiv:2013年2月3日、1312.6114
[16] N. Lazzaro。 ゲームをする理由: プレイヤーの経験でより多くの感情への4つの鍵。 Proceedings of GDC、2004. 6、10
[17] J. LehmanおよびKO Stanley。 新規性の探索を通じて問題を解決するためのオープンエンド性の活用。 ALIFE、2008. 9
[18] J.リーマンとKOスタンレー。 放棄する目的:進化だけで斬新さの探索。 進化的計算、2011. 9
[19] M. Lopes、T. Lang、M. Toussaint、およびP.-Y. Oudeyer. Oudeyer。
経験的に学習進展を推定することによるモデルベースの強化学習の探索。 NIPS、2012. 9
[20] M. Lopes、T. Lang、M. Toussaint、およびP.-Y. Oudeyer。
経験的に学習進展を推定することによるモデルベースの強化学習の探索。 NIPS、2012. 1
[21] V. Mnih、K. Kavukcuoglu、D. Silver、AA Rusu、J. Veness、MG Bellemare、A. Graves、M. Riedmiller、AK Fidjeland、G. Ostrovski、et al。
深層強化学習による人間のレベルの制御。 Nature、2015、1
[22] S。モハメドとDJ Rezende。 本質的に動機付けされた強化学習のための変分情報の最大化。 NIPSでは、2015年1月
[23] I. Osband、C. Blundell、A. Pritzel、およびB. Van Roy。 ブートストラップdqnによる深い探査。 NIPS、2016年9月
[24] G. Ostrovski、MG Bellemare、A.vd Oord、およびR.Munos。
神経密度モデルを用いたカウントベースの探索。 arXiv:1703.01310,2017。1,9
[25] P.-Y. Oudeyer。 好奇心に基づく学習の計算理論。 arXiv preprint arXiv:1802.10546、2018. 9

11


Page 12
0193>>192
垢版 |
2018/08/27(月) 10:12:55.87ID:Zq8VRJ9K?2BP(0)

[26] P.-Y. Oudeyer and F. Kaplan。 内在的な動機は何ですか? 計算上のアプローチの類型。 ニューロロボティクスの最前線、2009年1月9日
[27] D. Pathak, P. Agrawal, AA Efros, and T. Darrell.
D.Patak、P. Agrawal、AA Efros、およびT. Darrell。
自己監視予測による好奇心に基づく探索。 ICMLでは、2017年1月2日、3日、4日、6日、9日
[28] D. Pathak, P. Mahmoudieh, G. Luo, P. Agrawal, D. Chen, Y. Shentu, E. Shelhamer, J. Malik, AA Efros, and T. Darrell.
D. Pathak、P. Mahmoudieh、G. Luo、P. Agrawal、D. Chen、Y. Shentu、E. Shelhamer、J. Malik、AA Efros、およびT. Darrell。
ゼロショットの視覚的模倣。 ICLR、2018.1
[29] M.Plappert、R.Houthooft、P.Dhariwal、S.Sidor、RYChen、X.Chen、T.Asfour、P.Abbeel、およびM. Andrychowicz。
探索のためのパラメータ空間雑音。 arXiv:1706.01905,2017。9
[30] P. Poupart、N. Vlassis、J. Hoey、およびK. Regan。
離散ベイジアン強化学習の解析的解。 ICML、2006. 1
[31] DJ Rezende、S.Mohamed、およびD.Wierstra。
深い生成モデルにおける確率的逆伝播と近似推論。 arXiv preprint arXiv:1401.4082、2014。3
[32] EL Ryan、Richard; Deci。 内在的および外的な動機:古典的定義と新しい方向性。 現代教育心理学、2000. 1
[33] AM Saxe, PW Koh, Z. Chen, M. Bhand, B. Suresh, and AY Ng.
AM Saxe、PW Koh、Z. Chen、M. Bhand、B. Suresh、およびAY Ng。
ランダムウェイトと教師なしの特徴学習。 ICML、10891096ページ、2011年。
0194>>193
垢版 |
2018/08/27(月) 10:13:33.41ID:Zq8VRJ9K?2BP(0)

[34] J. Schmidhuber. 。 奇妙なモデル構築制御システム。
Neural Networks、1991年、IEEE国際共同会議、14581463ページ、IEEE、1991. 9
[35] J. Schmidhuber。 モデル構築のニューラルコントローラに好奇心と退屈を実現する可能性。
動物から動物へ:適応行動のシミュレーションに関する第1回国際会議の議事録、1991. 1
[36] J. Schmidhuber。 モデル構築のニューラルコントローラに好奇心と退屈を実現する可能性、1991. 9
[37] J. Schmidhuber。 創造性、楽しい、そして本質的な動機づけの公式理論(19902010)。
自律的精神発達に関するIEEEの取り組み、2010. 9
[38] J. Schulman、F. Wolski、P. Dhariwal、A. Radford、およびO. Klimov。 近接ポリシー最適化アルゴリズム。
arXiv preprint arXiv:1707.06347, 2017. 4
arXiv preprint arXiv:1707.06347,2017
[39] J. Schulman、F. Wolski、P. Dhariwal、A. Radford、およびO. Klimov。 近接ポリシー最適化アルゴリズム。
arXiv preprint arXiv:1707.06347、2017. 2
[40] SP Singh、AG Barto、N. Chentanez。 本質的に動機付けられた強化学習。 NIPSでは、2005年1月
[41] L.スミスとM.ガッサー。 具体的な認知の発達:赤ちゃんからの6回のレッスン。 人工生命、2005年1月
[42] BC Stadie、S。Levine、およびP. Abbeel。 深い予測モデルによる強化学習の探求を促進する。 NIPSワークショップ、2015年.2,9
[43] KO StanleyおよびJ. Lehman。 なぜ偉大さが計画できないのか:目的の神話。 Springer、2015。9
[44] S. StillおよびD. Precup。
An information-theoretic approach to curiosity-driven reinforcement learning.
好奇心に基づく強化学習への情報理論的アプローチ。 Theory in Biosciences, 2012. 9バイオサイエンス理論、2012. 9
[45] S. Sukhbaatar, I. Kostrikov, A. Szlam, and R. Fergus. [45] S. Sukhbaatar、I. Kostrikov、A. Szlam、およびR. Fergus。
Intrinsic motivation and automatic curricula via asymmetric self-play.
内在的な動機づけと、非対称セルフプレイによる自動カリキュラム。 In ICLR, 2018. 9 ICLR、2018年9月
0195>>194
垢版 |
2018/08/27(月) 10:14:07.88ID:Zq8VRJ9K?2BP(0)

[46] RS Sutton and AG Barto.
[46] RS SuttonおよびAG Barto。
Reinforcement learning: An introduction.
強化学習:導入。 MIT press Cambridge, 1998. 4
MITプレスケンブリッジ、1998。4
[47] H. Tang, R. Houthooft, D. Foote, A. Stooke, X. Chen, Y. Duan, J. Schulman, F. De Turck, and P. Abbeel.
H. Tang、R.Houthooft、D.Foote、A.Stooke、X.Chen、Y.Duan、J.Schulman、F.De Turck、およびP. Abbeel。
#Exploration:深層強化学習のためのカウントに基づく探索の研究。
神経情報処理システムの進歩、2017. 9
[48] P. Wouters、H. Van Oostendorp、R. Boonekamp、およびE. Van der Spek。
バックストーリーと予兆を実装することで、魅力的で効果的な真剣なゲームを作成する際のゲームの談話分析と好奇心の役割。
コンピュータとの交流、2011年6月、10
[49] Z. Yang, M. Moczulski, M. Denil, N. de Freitas, A. Smola, L. Song, and Z. Wang.
Z. Yang、M. Moczulski、M. Denil、N. de Freitas、A. Smola、L. Song、およびZ. Wang。
ディープフライドコンベット。
In Proceedings of the IEEE International Conference on Computer Vision, pages 14761483, 2015. 9
IEEEビジョンに関するIEEE国際会議予稿集、14761483、2015。

12
0196>>195
垢版 |
2018/08/27(月) 10:15:34.07ID:Zq8VRJ9K?2BP(0)

Page 13

A
実装の詳細

ウェブサイトでトレーニングコードと環境を公開しました3。
詳細については、ウェブサイトのコードとビデオの結果を参照してください。

前処理:
すべての実験はピクセルで行った。
すべての画像をグレースケールに変換し、サイズを84x84に変更しました。
現在の観測のみを使用するのではなく、歴史的観測[xt→3、xt→2、xt→1、xt]のスタックの両方でエージェントの方針とフォワードダイナミクスの機能を学ぶ。
これは、これらのゲームで部分的な観測可能性を取得するためです。
Super Mario BrosとAtariの実験では、各アクションを4回繰り返す標準フレームキットラッパーも使用しました。
0197>>196
垢版 |
2018/08/27(月) 10:16:05.21ID:Zq8VRJ9K?2BP(0)

Architectures:アーキテクチャ:
私たちの埋め込みネットワークとポリシーネットワークは、同一のアーキテクチャを持ち、Atariの実験で使用されている標準の畳み込みネットワークに基づいていました。
埋め込みネットワークのフィーチャとして取るレイヤーは、すべての実験で次元512で非線形性はありませんでした。
ユニティ実験では、予測誤差のスケールを外的報酬と比較して一定に保つために、埋め込みネットワークにbatchnormを適用しました。
また、共変量のレベルをレベルからレベルまで減らすためのMarioの一般化実験でもこれを行いました。
VAEの補助タスクとピクセルメソッドでは、同様のデコンボリューションアーキテクチャを使用しました。その詳細は、コード提出の中で見つけることができます。
IDFおよびフォワードダイナミクスネットワークは、埋め込みネットワークの最上位にあり、いくつかの完全に接続された次元の層512が追加されています。

ハイパーパラメータ:
すべてのネットワークで学習率0.0001を使用しました。
ほとんどの実験では、32の並列環境のみを実行できるUnityおよびRoboschoolの実験と、2048を使用した大規模なMarioの実験を除いて、128の並列環境を使用しました。
ユニティ実験を除いて、すべての実験で長さ128のロールアウトを使用しました。ここでは、512の長さのロールアウトを使用していました。ネットワークがすばやい報酬に素早く掛かるようにしました。
MarioとAtariの最初の9回の実験では、スピードのためにロールアウトあたり3つの最適化エポックを使用しました。
Marioスケーリング、一般化実験、Roboschool実験では、6エポックを使用しました。
ユニティ実験では、8つのエポックを使用しましたが、もう少し迅速に疎の報酬を利用しました。

B
追加の結果
0198>>197
垢版 |
2018/08/27(月) 10:16:35.47ID:Zq8VRJ9K?2BP(0)

0 250 500 750 1000 1250 1500 1750
0 1000 2000 3000 4000 5000 6000 7000

0 100 200 300 400

ビームライダー
BreakOut ? 起こる
MontezumaRevenge ? モンテスマ復讐
ポン
マリオ
Qbert
Reverraid ? 反逆
シークエスト
スペースインベーダーズ

フレーム数(単位:百万)
エピソードごとの外来報酬

ピクセル
VAE features ? VAEの機能
Inverse Dynamics features ? 逆動力学の特徴
Random CNN features ? ランダムCNN機能

(a)ベストリターン
(b)エピソードの長さ

図7:
(a)左:8つのアタリゲームとマリオの外生的なベストリターン。
(c)右:8つのアタリゲームとマリオのエピソード長の平均。
0199>>198
垢版 |
2018/08/27(月) 10:17:08.76ID:Zq8VRJ9K?2BP(0)

フレーム数(単位:百万)
エピソードごとの外来報酬

Inverse Dynamics features ? 逆動力学の特徴
ランダムエージェント
Random CNN features ? ランダムCNN機能

図8:
48個のAtariゲームで、純粋な好奇心に基づいた探索(外的報酬もエピソード終了信号もない)。
私たちは、外的帰還やエピソード信号の終わりにアクセスできないエージェントにもかかわらず、好奇心に基づくエージェントの外的帰還がしばしば増加することを観察します。
In multiple environments,
複数の環境では、
the performance of the curiosity-driven agents is significantly better than that of a random agent, although there are environments where the behavior of the agent is close to random, or in fact seems to minimize the return, rather than maximize it.
エージェントの行動がランダムに近いか、実際には最大限にするのではなく、リターンを最小限に抑えるような環境が存在するにもかかわらず、好奇心に基づいたエージェントのパフォーマンスはランダムエージェントのパフォーマンスよりも大幅に優れています。
大部分の訓練プロセスでは、RFは環境の約67%でランダムエージェントよりも優れていますが、IDFは環境の約71%でランダムエージェントよりも優れています。
0200>>199
垢版 |
2018/08/27(月) 10:17:54.98ID:Zq8VRJ9K?2BP(0)

Reward Gravitar Freeway Venture PrivateEye MontezumaRevenge ? Gravitar Freewayベンチャーに報酬を与えるPrivateEye Montezuma Revenge
Ext Only 999.3±220.7 33.3±0.6 0±0 5020.3±395 1783±691.7
Ext + Int 1165.1±53.6 32.8±0.3 416±416 3036.5±952.1 2504.6±4.6

表2:
これらの結果は、内因性+外因性報酬と外因性報酬のみを訓練した薬剤について、3種の種子にわたって1億フレーム後の平均報酬(±std-error)を比較する。
外因性(係数1.0)および内因性報酬(係数0.01)は、ハイパーパラメータ調整なしで直接結合された。
私たちは、将来の仕事まで内在的な報酬と内在的な報酬を最適に組み合わせる方法について質問を残します。
これは、内因性報酬と外的要因を組み合わせることが論文の焦点では​​なく、これらの実験が完全性のために提供されていることを強調しています。

B.1
アタリ
探索の量をより正確に測定するために、図7(a)の好奇心に基づくエージェントと図7(b)のエピソードの長さの最良のリターンを提供します。
特に、ポンでは、エピソードの長さが長くなり、リターンの高原と相まって、代理人は報酬ではなくボールのバウンス数を最大にすることを示しています。

図8は、48個のAtariゲームでの逆動力学とランダム機能に基づく好奇心に基づくエージェントのパフォーマンスを示しています。

このペーパーの焦点では​​ありませんが、完全性のために、いくつかの希少な報酬Atariゲームに内的および外的報酬を組み合わせたいくつかの結果が含まれています。
外的報酬と組み合わせる場合、エピソード信号の終わりを使用します。
使用された報酬は、外的報酬に内的報酬の0.01倍を加えたものである。
結果を表2に示す。
内在的な報酬と外的報酬の組み合わせを調整する必要があるため、設定間に大きな違いはありません。
私たちはMontezuma's Revengeの本質的な+外因的な実行の1つが10の部屋を探索したことを観察しました。

3ウェブサイトhttp://pathak22.github.io/large-scale-curiosity/

13
0201>>200
垢版 |
2018/08/27(月) 10:19:14.57ID:Zq8VRJ9K?2BP(0)

Page 14


0 2500 5000 7500 10000 12500 15000 17500
0 25000 50000 75000 100000 125000 150000 175000 200000

エピソードごとの外来報酬
勾配の更新の数

マリオのスケール

128環境のバッチ
バッチ1024環境

図9:
Marioスケーリング実験での外因性のベストリターン
より大きなバッチではエージェントがより効果的に探索し、より少ないパラメータ更新で同じパフォーマンスに到達し、より良い最終スコアを達成できることがわかりました。


B.2 Mario
図3(a)に示すプロットのアナログを示し、最大の外的収益を示します。
図9を参照。

14


Page 15


15
0203>>155-201
垢版 |
2018/08/27(月) 10:23:27.98ID:Zq8VRJ9K?2BP(0)

>>155-201
http://rio2016.5ch.net/test/read.cgi/future/1534904728/156-158#21-28#17#228# AI/AL
http://rio2016.5ch.net/test/read.cgi/future/1529408476/280# Araya


>158 ー 180824 1739 3eCkMSqb
:
>に突き動かされるエージェントは独自のルールを、なんというか、セットするようになる。
> 新しいことを経験するように刺激される。
>、Breakout ry 、飽きたくないというモチベから、いいパフォーマンスをしてくれるのだ。
> ホワイトペーパー:”ボールによってブロックが積みあがるだけ、残されたブロックは複雑になる。
>ry を刺激してさらに探索させ、その副産物でスコアも

 

> 123 名前:YAMAGUTIseisei E-mail:sagezon.jp/dp/4041058856/okyuryo-22 投稿日:NG NG?2BP(0)
> >>3 >>103
> http://www.nhk-ondemand.jp/
> 負けた相手にどう立向うか梅原はその戦略を考え続けていた
>
> もう少しこう自分からうーん攻める様な方法はないかなって云うのは夜考えてましたね
> 只キャラのキャラクターのコンセプト的にそういう風に作られてないので
> ちょっと無理あるかなーとは思ってますけど
>
> 其々のゲームキャラクターにはゲーム開発者によって強味や弱味が設定されている
> ときどの使う豪鬼 パワフルで攻撃力が非常に高く最強のキャラクターの一つだ
> だが梅原は敢て最強のキャラクターを使おうとはしない
> 梅原のガイルは防御力が強みで攻撃を仕掛けるよりは受けを得意とする
> 元々の設定上プロ同士が闘うとガイルは豪鬼の攻撃に耐え切れず劣勢になりがちだと言う
> だが
0204>>203
垢版 |
2018/08/27(月) 10:24:30.72ID:Zq8VRJ9K?2BP(0)

>>203
>
> 只意外とこういうのってホントにしつこくしつこく捜してると見付かったりするんですよね
> 開発者が意図してない部分でその技術を試すし考えるし自分がね工夫するしそれが楽しいんですね
> 新しい発見とかが見付かるかも知れないと思うとワクワクするし
>
> 最強ではないキャラクターの方が予想外の戦略で闘う面白さが生まれ易いと梅原は考える
> 梅原にはプロゲーマーが勝利と共に絶対に大事にすべきと考える事がある
>
> 観客を如何に楽しませられるか
>
> あのやっぱり見ている人がいてその人達を喜ばせる事 楽しませたりとか
> 後は単純に納得させたりとかするって云う事は凄い大事なそれがまそそそれがもぅゴールですから
> 仕事としてはそこがゴールですから見ている人達がどう感じるかじゃないですか
>
> 梅原は自分のキャラクターが苦手とする積極的な攻撃を試し始めた
>
>
>プロフェッショナル 仕事の流儀 新しい仕事スペシャル 2018/03/19(月)19:30放送 NHK総合 TVでた蔵
> http://datazoo.jp/tv/%E3%83%97%E3%83%AD%E3%83%95%E3%82%A7%E3%83%83%E3%82%B7%E3%83%A7%E3%83%8A%E3%83%AB+%E4%BB%95%E4%BA%8B%E3%81%AE%E6%B5%81%E5%84%80/1147496
> [プロフェッショナル 仕事の流儀 【 ry 】 ]の番組概要ページ - gooテレビ番組(
> http://tvtopic.goo.ne.jp/program/nhk/10934/1147496/
0205yamaguti
垢版 |
2018/12/18(火) 09:31:46.48ID:1Mljh8RF?2BP(0)

>>155-204
>403 ー 181206 0634 9MxLzrNl
>http://mobile.twitter.com/jaguring1/status/1070114078557843456
>
>グーグル傘下のDeepMindの研究 \>アタリのゲーム 難 3 \> 「MONTEZUMA’S REVENGE」 「PITFALL!」 「PRIVATE EYE」
>
> 環境報酬なしでも平均的な人間のスコアを大幅に超えた。
>http://papers.nips.cc/paper/7557-playing-hard-exploration-games-by-watching-youtube.pdf

>97 ー 181217 2203 EMtBn6g5
>前スレのこれ面白
> DeepMindの人工総合知能への新しいマイルストーン/DeepMind’s New Milestones on the Road to Artificial General Intelligence
>
>ディープマインドの沿革をまとめ 記事
>最近のチェスの 。 \>24時間の自己トレーニング、現最強のソフトの学習処理速度の900分の1という制限で、最強ソフトに圧勝
>アルファゼロからアルゴリズム 進化 証拠
>、アタリゲームの何十種類もスーパーヒューマンレベル
>限定的なAGIということか。

>53 yamaguti 181217 2106 wTQbtxsi? \>27 yamaguti 181201 2235 pKy81yx+? \ \ \ \ \> >686 620 170329 0115 oL56SRZT
>>>>強い AI ( AL ) 簡易版実装用資料 ( ほぼ網羅 ) >680 ( >552 >529 引込現象 )
>>>>
>>>> >205 >135 : YAMAGUTIseisei 20161009 >繰返しになるが既にできている ( 自分だけの問題でないので全てを詳らかにできないが自分の師匠がとうの昔に簡易
:
>>> >837 YAMAGUTIseisei 181014 1912 6JUQzgf8? \> >41 yamaguti 1009 1337 viDZhWE2? \> >280 名前:YAMAGUTIseisei E-mail:1537288223sage854-888 投稿日:2018/10/01(月) 10:33:23.53 ID:clFG90EB?2BP(0)
>>>>> DeepMind 強い AI/AL 射程 目鼻
:
>>>>http://rio2016.5ch.net/test/read.cgi/future/1489922543/273-285## \ \ dahara1 氏
:
>>>>、計算的に様々なタスクに応用できるチューリング完全なUniversal Transformers \>>>>汎用
>>>> :
>>>>ry : HTM HPKY DSL HPKY-UniversalTransformer SingularityNetAL CellBeAL SW26010AL PezyBbiAL NeuralLaceAL
https://twitter.com/5chan_nel (5ch newer account)
0206205
垢版 |
2019/05/16(木) 22:58:46.56ID:aLnc2HDn
>>205
| 27 yamaguti 190514 1314 2vGaUUWM \>49 yamaguti 190419 0256 CVBD0yuO
||>130 ー 190405 1357 +TcvRYcO
|||】「ドワンゴ人工知能研究所」が閉鎖
||>http://egg.2ch.net/test/read.cgi/bizplus/1554121214/240-248#(247)#299-303#(299,303)#345-364#(363)##
|||
||>に汎用人工知能に詳し
||
||>240 名刺は切ら 190405 1541 CocGLBI2
||| >235大森秀樹さんも可哀想に
|||
||>お宅が汎用AI 理解してないだけ
||>大森 氏の幾何学への新 視点(不確定性と非可換
||>では数学は 脳が作っ
||>自然数さえも脳の直観に基づくと
|||
||>ようするに数学には普遍性はない
||>脳から離れては数学は実在しない
|||
||>以前 は \>人間とは離れて数学 実在 って考え
|||
||| 放送大学の線形代数入門に
||>数学は20世紀末からヒルベルトの形式主義から急速に脱出しつ \>と 記述
|||
||>これはヒルベルトの抽象化 形式 に \>普遍性が無い事を言ってる
|||
||>ようするに点集合の上部構造としての \>公理的集合論に普遍性はない
|||
||>放送大学の教科書だけでなく \>大森 氏も著書で指摘
||
|| http://rio2016.2ch.net/test/read.cgi/future/1541837624/59-60#1489922543/286#1523134522776# RyousiRon
0207205
垢版 |
2019/05/16(木) 23:00:11.35ID:aLnc2HDn
>>205-206
| 25 yamaguti 190514 1313 2vGaUUWM \ \>44 yamaguti 190419 0252 CVBD0yuO
||||>909 ー 190417 1359 MA2fvPeQ >579 ー 190411 0657 WPKyHS65
|||| :
||||>深層学習の限界突破へ、MITなどが「ハイブリッドAI」を開発
||||>http://m.newspicks.com/news/3827917##
||| :
|||>579 ー 190411 0657 WPKyHS65
|||| 深層学習の限界突破へ、MITなどが「ハイブリッドAI」を開発  
|||>http://www.technologyreview.jp/s/135091/two-rival-ai-approaches-combine-to-let-machines-learn-about-the-world-like-a-child/
||| :
||||>44 yamaguti 190404 1907 CS6nD8sb? \ \> 45 名前:yamaguti E-mail:この国だけに配慮致します立場でないので申上げますsage 投稿日:2019/03/08(金) 14:06:39.82 ID:lgKqio1I?2BP(0) \ \> YAMAGUTIseisei wrote:
||7| HPKY 型汎用 AI/AL ( NN ベース辞書ベース例 )
|||||||| :
|||7>774 yamaguti~貸 171020 1534 0nNF/MoU?
||||||| :
|||7>NN ベース AI というよりもいわば設計ベース AI ( AL ) + NN
|||7|
|||7>従来予想 : 超強力弱い AI (
|||| :
||||
|||| Smalltalkの背後にある設計原則
|||| http://rio2016.2ch.net/test/read.cgi/future/1553614026/27-35#-48
|||| http://google.jp/search?q=alan+kay+curtis+OR+dainabukku+OR+ruby+OR+rubinius/squeak
|||| http://rio2016.2ch.net/test/read.cgi/future/1552014941/34-45# 45,35 : HPKY # 40 : MetaAL , DSL Suityoku
|||| http://rio2016.2ch.net/test/read.cgi/future/1489922543/173-183#1529408476/159# KenRon # DSL Suityoku
|||| http://google.jp/search?q=hamada-hozumi-urr+OR+futamura-syaei+OR+subleq+OR+k-gyaku-konpaira
|||| p://google.jp/?q=hasabisu+ai+haiburiddo
0208102
垢版 |
2019/11/30(土) 18:17:42.15ID:g1wMpMyw
> 30 yamaguti 190901 2352 vP6qbkkr \ \>38 yamaguti 190712 0741 BvhXtK7w
>>> >830 ー 190703 1024 EzMBrXH5
> :
>>> >941 ー 190704 1138 y8i+Pbd/
>>>>AIの不安、第一人者の答
>>>>・ヒントン氏 トロント大学名誉教授
>>>>_ttp://r.nikkei.com/article/DGXKZO46915090T00C19A7TCS000
>>> :
>>>>「想像以上のことが起き 。10年前 機械翻訳ができる 思わな 。 ーラルネッ を信じていた私 も含め 。
>>>>2009 私に『19年 機械が複数の言語を翻訳できる か』 『ノー』
>> :
>>>>「 、いずれ機械は人のように賢くなる 。 5年かも
>>> :
>
> >>10
>>マイクロソフトから1千億円 調達 OpenAI。5年以内にAIの知能が人間レベルに到達 予測
>
> 弱い AI 世界線 松田先生 カーツワイル先生
> _ttp://rio2016.2ch.net/test/read.cgi/future/1496019293/140# YowaiAI SekaiSen MatudaSensei KaatuwairuSensei
> 齊藤元章氏‐AGIチップ実現への Game Changer
> _ttp://m.youtube.com/watch?v=l9OEV9dqYvM
0209>>102
垢版 |
2019/11/30(土) 18:18:15.85ID:g1wMpMyw
> 59 yamaguti 191125 1755 6K8X4p8M
> >933 ー 191115 0924 IvREeeSh
>>ニューラルネッ こうして進化 : の 権威 ・ヒントン
>>_ttp://wired.jp/membership/2019/11/15/ai-pioneer-neural-networks/
>
>> GH: 、パンダを見てダチョウと 、 。 、 上位の表現からの再構成 問題 。 。 。最近、 、 ・フロスト 、(上位の表現からの)再構成 、 発見
> :
>> NT: も 再構成できる ? 意識も ?
>> GH:もちろ
>
>> 43 yamaguti 191009 2042 M35a2ys0
> :
>> >729 ー 191006 1550 r9nhsQ+4
> :
>>>GANを用いて過去に覚え を忘れない クラス分類器を実装した新 ーラルネッ
>>>p://ai-scholar.tech/treatise/acgan-ai-223/# http://rio2016.2ch.net/test/read.cgi/future/1567327896/34-37##1569536835/22# なぜニューロンは何千ものシナプスを持っているのか、新皮質に於けるシーケンス記憶の理論
> :
>
>> 尖端シナプスはトップダウンの期待 ( 訳注 : 待望 予想 ) を呼び起こす
>> 2.2.3。 尖端シナプスはトップダウンの期待を生み出す
>> 図 4>このようにして尖端フィードバックはネットワークを、どんな入力であれ予想シーケンスの一部である、として解釈する様にバイアスし、予想シーケンス内のどの要素ももしも入力と一致しない場合を検出
0210ウルトラスーパーハイパーフィードバックエレキモンバーストモード
垢版 |
2019/12/14(土) 16:21:36.48ID:ZdbDCgAD
デジモン(デジタルモンスター)シリーズのアニメの最新作を放送してね
デジモン(デジタルモンスター)シリーズのアニメの完全新作を放送してね
デジモン(デジタルモンスター)シリーズのアニメの新作を放送してね
デジモン(デジタルモンスター)シリーズのアニメの次期作を放送してね
デジモン(デジタルモンスター)シリーズのアニメの次回作を放送してね
デジモン(デジタルモンスター)シリーズのアニメの続編を放送してね
デジモン(デジタルモンスター)シリーズのアニメの続きを放送してね
デジモンテイマーズはネ申アニメだよ
デジモンテイマーズは神アニメだよ
デジモンテイマーズは意欲作だよ
デジモンテイマーズは話題作だよ
デジモンテイマーズは超大作だよ
デジモンテイマーズは良作だよ
デジモンテイマーズは秀作だよ
デジモンテイマーズは傑作だよ
デジモンテイマーズは名作だよ
デジモンテイマーズは上作だよ
デジモンテイマーズは佳作だよ
ライヒモンの勝ち
ライヒモンの勝利
ライヒモンの大勝利
ライヒモンの完全勝利
ライヒモンの圧勝
ライヒモンの楽勝
ライヒモンの戦勝
ライヒモンの制勝
ライヒモンの連勝
ライヒモンの優勝
ライヒモンの奇勝
ライヒモンの全勝
ライヒモンの完勝
ライヒモンの必勝
0211オーバーテクナナシー
垢版 |
2020/05/08(金) 02:41:33.85ID:LSUa2ZRk
何でこんなになるまで放っておいたんだ!
0212山口
垢版 |
2020/10/05(月) 00:45:40.66ID:6OqsHZKZ
脳とシリコンスパイクニューロンとをメモリスタシナプスは接続する
http://rio2016.2ch.net/test/read.cgi/future/1597066673/17-21#
>脳機能は、記憶の格納と処理とを伝達に伴って融合的統合する ( 訳注 : 記憶格納と処理とは元々一体 ) 事のキー役を演じているシナプスを 。
>を説明しますがそこでは荷重刺激を、興奮性シナプス後電位似反応へと誘導している薄膜酸化物それを経由するという、通貨をさせる事によって伝達を媒介します。
>の上で我々が実証するのは、 をニューロン発火率駆動によってメモリスタシナプスが受ける所の、 3ニューロンの脳シリコンネットワークです
0213山口
垢版 |
2020/12/27(日) 05:31:35.04ID:AGfIL1OI
概要>、興奮性シナプス後電位似反応へと誘導している所の薄膜酸化物経由という、通過、
前書き>、 BCI を究極的には齎すという事を約束しています。
前書き>? ry に、メモリスタMR1は、それぞれ1 ry )からシナプス ry 脱分極を ry システムを ry 端子デバイスとして動作します。
前書き>? ry 接続するハイブリッド回路の代表例であり、
0215オーバーテクナナシー
垢版 |
2021/09/05(日) 12:10:04.34ID:WetwWqzX
>36 _ 201017 0123 9Av//tVf \>54 _ 200927 1112 UxWJCUDQ http://rio2016.2ch.net/test/read.cgi/future/1491330538/1504999631/624# Kifu
|| Google 翻訳 : 記憶と認知 1974年、Vol。 2 、No. 3、467-471 http://link.springer.com/content/pdf/10.3758/BF03196906 .pdf 注意 http://link.springer.com/article/10.3758/BF03196906 ttp://springer.com/journal/13421/
| :
|
|| 後続の記憶探索取得に対する1つの記憶探索取得の影響*
| :
|
|
|| ジェフリー・R・ロフタスとエリザベス・F・ロフタス
|> ワシントン大学、シアトル、ワシントン98195
| :
|
|>被験者達は、カテゴリのインスタンスを生成し、0個または2個の介在アイテム ( 原文 : intervening items ) が続くと、同じカテゴリの2番目のイン スを生成し た。
|| 2番目のインスタンスは、最初のイン スよりも迅速に作成され た。
|| この調査結果は、本書で報告されている他のデータと併せて、2番目のインスタンスのレイテンシの減少は主に、検索されたカテゴリでの速度の短縮によることを示しています。
:
>http://rio2016.2ch.net/test/read.cgi/future/1601145490/53-60#-66
方法 http://rio2016.2ch.net/test/read.cgi/future/1602728979/35-44#-49 42>半透明ガラス窓付きスクリーン
41>? 160の重要な刺激(それぞれ2つの文字とペア ry )に ry 。
41>重大重要刺激 160 個(文字 2つとそれぞれペアになった80のカテゴリー)に加えて、80のフィラー刺激が使用されました。
|
>
|
|| 再構成可能生物を設計するためのスケーラブルなパイプライン
|| http://rio2016.2ch.net/test/read.cgi/future/1595501875/84-114#-118#1601145490/54 \|
|| 「健康医療分野のデータベースを用いた戦略研究」
|>http://rio2016.2ch.net/test/read.cgi/future/1519958054/60-78# ttp://google.jp/search?q=pezy-sc+paper# \:
> 一覧 http://rio2016.2ch.net/test/read.cgi/future/1601145490/22-25
脳とシリコンスパイクニューロンとをメモリスタシナプスは接続する
http://rio2016.2ch.net/test/read.cgi/future/1620263233/27-38
0216オーバーテクナナシー
垢版 |
2021/09/05(日) 12:12:56.57ID:WetwWqzX
|| *複写のリクエストは、 98195 ワシントン大学シアトル校の心理学部ロフタスに送信できます。
|| この研究は、E。ロフタスに対する国立精神衛生研究所の助成金、およびG.ロフタスに対する国立科学財団の助成金によって支援され た。
|| 原稿へのコメントに対してThomas 0. Nelsonに感謝の意が表されます。
|
>
| 文字カテゴリ : 文字 - カテゴリ
| カテゴリ文字 : カテゴリ - 文字
| アクティブ化モデル , 活性化モデル : アクティべーションモデル
|
| ハイデルベルクニューロモルフィックコンピューティングプラットフォームへのHTMモデルの移植
| http://rio2016.2ch.net/test/read.cgi/future/1548169952/34#26-37#-52#1552014941/69-81#67-89 予測 , アクティブ

 
好奇心に基づいた学習の大規模研究
http://rio2016.2ch.net/test/read.cgi/future/1481407726/155-202#-205
SSVEPマグニチュード変動の予測モデル : ブレインコンピュータインタフェースにおける連続制御への応用
http://rio2016.2ch.net/test/read.cgi/future/1564044623/25-39
0217オーバーテクナナシー
垢版 |
2021/09/05(日) 14:11:45.94ID:498rJRD6
結果

 

2.5秒 インターバル ? 寛容
     1.90
   RT    :         *   レター-カテゴリー
      :         *   カテゴリー-レター
     1.60
     1.50

        0    2     初期 ( 原文 : initial ( 初期値 ) )
          遅れ

図2。
? 重要なカテゴリーの2つの出現の間 ry 。
決定的重要カテゴリの各出現 2つの間の介在アイテム(ラグ)の数の関数としての秒単位の平均反応時間。
? ry と手紙の間 ry 。
アイテムは、カテゴリーと文字との間に2.5秒の間隔で提示され た。
0218オーバーテクナナシー
垢版 |
2021/09/05(日) 14:15:17.97ID:498rJRD6
>>217
同時に。


     2.20
   RT    :         *   レター-カテゴリー
      :         *   カテゴリー-レター
     1.90
     1.80

        0    2     初期 ( 原文 : initial ( 初期値 ) )
          遅れ

図3。
重要なカテゴリーの2つの出現の間の介在アイテム(ラグ)の数の関数としての秒単位の平均反応時間。
? ry と手紙は同時に発表され ry 。
カテゴリーと文字とが同時提示され た。
0219オーバーテクナナシー
垢版 |
2021/09/05(日) 14:17:32.50ID:498rJRD6
>>217-218
? 重要な刺激に ry 含まれていました。
重大重要刺激に対する正しい反応(96%)のみが、以下の分析に含まれ た。
? ry は、12の条件のそれぞれに ry 。
レイテンシの中央値は、条件 12 件各々における各Sの応答について得られ た。
? 次に、各条件について、個々のSの中央値を平均することにより、平均待機時間を取得しました。 これら ry 。
各条件について、平均レイテンシを、然して、被験者夫々からの中央値の平均化により取得し た ; これらの平均は、図2および3にプロットされ ます >217-218
図2は、カテゴリと文字の間に2.5秒の間隔が挿入されたときの結果を示し ます >>217
? 文字カテ ry ゙リ文字 ry ます。 さらに、 ry 、ラグ2よりもラグ0で速く生成 ry 。
文字-カテゴリ条件とカテゴリ-文字条件の両方で、カテ の2番目のインスタンスは最初のイン スよりも速く生成されます ; さらに、2番目のイン スは、ラグ 2 時点よりも早くラグ 0 時点に於て生成されます
図3は、文字と名詞が同時に提示されたときに同じパターンの結果が得られることを示 >>218

2(オーダー)x 2(間隔)x 3(ラグ)の分散分析がレイテンシデータに対して行われ た。
? ry ゙リ文字 ry 33.52、p <01]。
ラグ[F(2,34)= 6.57、p <.05]、カテゴリ-文字順[F(1,17)= 14.71、p <.01]、および間隔[F(1、 17)= 33.52、p <01] に於て有意な効果が見られ た。

 

469
1つのメモリ検索の影響


? 2方向または3方向の ry 。
それら 2 方法又は 3 方法の相互作用はいずれも有意ではありませんでした(すべてのケースでF <1)。
0221オーバーテクナナシー
垢版 |
2021/09/05(日) 16:11:32.66ID:A+t1x18S
討論

メモリー検索の依存性
? いくつ ry では、セマ ry から情報を取 ry リが以前に短時間アクセスされた場合に短 ry ことが示 ry 。
情報をセマンティックカテゴリから取得する時間が、そのカテ がもしも短時間前にアクセスされていた場合 短縮される事が、いくつかの研究では示され ます
? たとえば、Collins ry は、「 ry 」などの質 ry。
Collins and Quillian(1970)は、例えば、「カナリアは鳥 か?」といった質問に答えるのに必要な時間を示しています
前回のトライアルでカナリアに関する情報にアクセスした場合、600ミリ秒も減 。
多少異なるパラダイムを使用して、マイヤーとシュヴァネヴェルト(マイヤー&シュヴァネヴェルト、1971年;メイヤー、シュヴァネヴェルト&ラディ、1972年、シュ &メ 、1973年;メ 、1973年)は同じことを示しています
これらの実験では、Sは文字列を単語または非単語として分類 要
? 一般的な発見は、Sが意味的に類似していない単語とは対照的に3つの意味的に類似した単語を分 ry り速い ry 。
そこでの一般的発見は、意味的非類似なとは対照的な意味的類似な 3 単語それらを被験者が単に分類した場合、文字列を単語として分類する反応時間はより早い こと
したがって、 、「バター」の前に「パン」が付いている場合は、「ナース」が前にある場合よりも、「バター」を単語として分類 時間が速

このような結果を処理 ために、2つの一般的なクラスのモデルが提案されています
ロケーションシフトモデル(Meyer&Schvaneveldt、1971)は、Sが特定のカテ のメンバーの処理を終了し、次にシフトして2番目のカテ の処理を開始する必要 場合、シフト時間は2つのカテ 間の意味的距離に依存すると想定 。
? 一方、 ィブ化モデルは、カテ ry 、処 ry 的に類 ry 他のア が「興奮」または「 ィブ化」されるこ ry 。
アクティべーションモデルは、一方、カテ 内のアイテムが処理されるときに、その処理される情報と意味的類似している範囲で、他アイテムが「興奮化」または「アクティべート」される ことを前提とし ます
さらに2つの想定が行われます。1つ目(Warren、1970年)は、アクティブ化が時間とともに減衰すること、2つ目は、 ィブ化されたアイテムは非アクティブ化されたアイテムよりも容易にアクセスできること 。
0222オーバーテクナナシー
垢版 |
2021/09/05(日) 16:13:54.52ID:A+t1x18S
本実験の結果は、Meyer et al(1972)とLoftus(1973)のデータと合わせて、位置シフトモデルを非承認にし、活性化モデルをサポート 。
? ry な比 ry 。
これらすべての実験には、次のような各比較が含まれます
? Tが、処理される時間が対象の従 数であるター 報を表す ry 。
処理時間を対象従属変数としたターゲット情報を T が表すとします
? Rが意味的にTに関 ry が意味的にTに関連 ry 表すようにします。
T に意味的関連する情報をR が表し、最後にU1とU2が T に意味的関連しない情報を表すとします
? 次の3つの条件を検討してください。
ここで 3 条件を検討します :

    条件a:プロセスU1; プロセスU2; プロセスT.
    条件b:プロセスR; プロセスU2; プロセスT.
    条件c:プロセスU1; プロセスR; プロセスT.

? ry 、次に条件bで最も速く、条件a ry 。
データは、Tが条件cで最も速く、条件bで次点最速、条件aで最も遅く処理されることを示 。
位置シフトモデルとアクティブ化モデルはどちらも、条件cの反応時間が条件aおよびbの反応時間よりも速いことを正しく予測しています
ただし、2 モデルの予測は、条件aとbの関係に関して異な 。
位置シ モデルは、条件aと条件bの反応時間が同じであると誤 予測 。どちらの場合も、Sは無関係なカテゴリU2からTにシフトしているためです
一方、活性化モデルは、得られた結果のパターンを正しく予測 。
? これは、条件bでは、 ry よってアクティブ化され ry 、この ィブ化がTが処理 ry 時間までに減衰して ry 。
これは条件 b に於ては、TがRによってアクティべートされたと見なされ、そしてこのアクティべーションが、 T の処理される時間によっての減衰をしていないためです
? 一方、条件aでは、Tはまったくアクティブ化されていないと見なされます。 したがっ ry 。
条件 a では、一方、 T がアクティべートされたとは全く見做されません ; したがって、Tを処理する時間が長くなります。
0223オーバーテクナナシー
垢版 |
2021/09/05(日) 16:16:33.92ID:A+t1x18S
http://rio2016.2ch.net/test/read.cgi/future/1531018600/606-609#1489922543/123 SonzaiSyoumetu , Kiraware KujoRisuto
http://rio2016.2ch.net/test/read.cgi/future/1530234247/371# SonzaiSyoumetu
http://rio2016.2ch.net/test/read.cgi/future/1575365633/343-344# RokoNoBajirisuku
http://rio2016.2ch.net/test/read.cgi/future/1473812514/299#323#437 KimotiNoGeemu Ni Tyenji
ttp://rio2016.2ch.net/test/read.cgi/future/1515491512/6# SinNoHeiwa ( YuugouMae )
ttp://rio2016.2ch.net/test/read.cgi/future/1583435188/60# RikaiNoMondai
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況