X



人工生命 Part1
■ このスレッドは過去ログ倉庫に格納されています
0130山口
垢版 |
2022/05/29(日) 20:10:57.75ID:q7dSoInl
[13]
アレックス・グレイブス、グレッグ・ウェイン、イヴォ・ダニエルカ。
ニューラルチューリングマシン。
CoRR、abs / 1410.5401、2014年。
[14]
ミカエル・ヘナフ、ジェイソン・ウェストン、アーサー・スラム、アントワーヌ・ボルデス、ヤン・ルクン。
リカレントエンティティネッ ークによる世界の状態の追跡。
arXivプレプリントarXiv:1612.03969、2016年。
[15]
ゼップ・ホッフライター、ヨシュア・ベンジオ、パオロ・フラスコーニ、ユルゲン・シュミットフーバー。
リカレントネットの勾配フロー:長期依存関係の学習の難しさ。
動的リカレントニューラルネットワークのフィールドガイド、2003年。
[16]
A.ジョウリンとT.ミコロフ。
? ry アノ ーンの推測。
スタック拡張リカレントネットを使用したアルゴリズムパターン推測
神経情報処理システムの進歩、(NIPS)、2015。
[17]
£ukaszKaiserとIlya Sutskever。
ニューラルGPUはアルゴリズムを学習します。
2016年の学習表現に関する国際会議(ICLR)で。
[18]
ニキータ・キタエフとダン・クライン。
? ry した構成要素の解析。
自己注意型エンコーダーを使用した構成要素パーシング
ACL’18、2018の議事録。
[19]
Zhouhan Lin、Minwei Feng、キケロ・ノゲイラ・ドス・サントス、モー・ユー、ビング・シャン、ボーエン・ジョウ、ヨシュア・ベンジオ。
構造化された自己注意文の埋め込み。
arXivプレプリントarXiv:1703.03130、2017年。
0131山口
垢版 |
2022/05/29(日) 20:12:22.09ID:q7dSoInl
[20]
Tal Linzen、Emmanuel Dupoux、およびYoav Goldberg。
構文に依存する依存関係を学習するlstmsの能力の評価。
計算言語学協会のトランザクション、4(1):521535、2016。
[21]
デニス・ペーパーノ、ゲルマン・クルゼフスキ、アンジェリキ・ラザリドゥ、ゴック・クアン・ファム、ラファエラ・ベルナルディ、サンドロ・ペッツェル、マルコ・バローニ、ジェマ・ボレダ、ラケル・フェルナンデス。
ランバダデータセット:幅広い談話コンテキストを必要とする単語予測。
計算言語学会第54回年次総会の議事録(第1巻:長文)、第1巻、15251534ページ、2016年。
[22]
? ry OscarT臘kstr ry
Ankur Parikh、OscarT秣kstr 、Dipanjan Das、およびJakob Uszkoreit。
分解可能なアテンションモデル。 自然言語処理における経験的方法、2016年。
[23]
ジャック・レイ、ジョナサン・J・ハント、イヴォ・ダニエルカ、ティモシー・ハーリー、アンドリュー・W・シニア、グレゴリー・ウェイン、アレックス・グレイブス、ティム・リリクラッフ。
? ス ース読み取りおよび書き込みによるメモリ拡張ニュー ークのスケー ゙。
? 読み取りと書き込みがまばらなメモリ拡張ニューラルネッ ークのスケーリング。
読込書込がスパースな拡張記憶ニューラルネットワークそのスケーリング
ニューラル情報処理システムの進歩、ページ36213629、2016年。
[24]
ミンジュンソ、セウォンミン、アリファーハディ、およびハンナネハジシルジ。
質問応答のためのクエリ削減ネッ ーク。
arXivプレプリントarXiv:1606.04582、2016年。
[25]
Nitish Srivastava、Geoffrey E Hinton、Alex Krizhevsky、Ilya Sutskever、およびRuslanSalakhutdinov。
ドロップアウト:ニューラルネッ ークの過剰適合を防ぐ簡単な方法。
Journal of Machine Learning Research、15(1):19291958、2014年。
0132山口
垢版 |
2022/05/29(日) 20:14:43.80ID:q7dSoInl
[26]
Sainbayar Sukhbaatar、Arthur szlam、Jason Weston、Rob Fergus。
エンドツーエンドのメモリネッ ーク。
C. Cortes、ND Lawrence、DD Lee、M。Sugiyama、およびR. Garnett、編集者、Advances in Neural Information Processing Systems 28、24402448ページ。 Curran Associates、Inc.、2015年。
[27]
Ilya Sutskever、Oriol Vinyals、およびQuoc V. Le。
? ry を使用したシーケンス間学習。
ニューラルネッ ークを伴ったシーケンスtoシーケンス学習
ニューラル情報処理システムの進歩、ページ31043112、2014年。
[28]
Ke Tran、Arianna Bisazza、およびChristof Monz。
? ry に再発す ry 。
階層構造をモデル化するために再帰することの重要性
NAACL'18、2018年の議事録で。
[29]
アシュシュ・ヴァスワニ、サミー・ベンジオ、ユージーン・ブレブド、フランソワ・ショレット、エイダン・N・ゴメス、ステファン・ゴース、リオン・ジョーンズ、オーカス ( ? 訳注
: ルーカス ) ・カイザー、ナル・カルクブレンナー、ニキ・パーマー、ライアン・セパシ、ノーム・シェーザー、およびヤコブ・ウシュコライト。
ニューラル機械翻訳用のTensor2tensor。
CoRR、abs / 1803.07416、2018。
[30]
Ashish Vaswani、Niki Parmar、Jakob Uszkoreit、Noam Shazeer、およびLukasz Kaiser。
イメージトランスフォーマー 、
2018年。
[31]
アシュシュ・ヴァスワニ、ノアム・シェーザー、ニキ・パーマー、ヤコブ・ウシュコライト、リオン・ジョーンズ、エイダン・N・ゴメス、ルカス・カイザー、イリア・ポロスキヒン。
? ry は注意だけです。
必要なのはアテンションだけです
CoRR、2017年。
0133山口
垢版 |
2022/05/29(日) 20:18:08.40ID:q7dSoInl
[32]
ジェイソン・ウェストン、アントワーヌ・ボルデス、スミット・チョプラ、アレクサンダー・M・ラッシュ、バート・ヴァン・メリエンボーア、アルマン・ジョウリン、トマス・ミコロフ。
? ry :一連の前提条件のおもちゃのタスク。
AI完全な質問応答に向けて:前提条件のおもちゃ的タスクのセット。
arXivプレプリントarXiv:1502.05698、2015年。
[33]
ダニ・ヨガタマ、イーシュ・ミャオ、ガーボル・メリス、ワン・リン、アディグナ・クンコロ、クリス・ダイアー、フィル・ブランソム。
リカレントニューラルネットワーク言語モデルのメモリアーキテクチャ。
2018年、学習表現に関する国際会議で。
[34]
Wojciech ZarembaとIlya Sutskever。
? ry することを学ぶ。
実行 ( 訳注 : 汎用処理 ) する為の学習。
CoRR、abs / 1410.4615、2015年。

 
LaTeXML [ロゴ]によって生成
私たちが作っている新しいツールについて知りたいですか?
随時更新される場合は、メーリングリストに登録してください
申し込む

LaTeXMLの助けを借りて、Andreas JanssonとBen Firshmanによって構築され た。
GitHubに貢献してください
? ry より提供。
YLDのご厚意によりスポンサードされました

 
http://rio2016.2ch.net/test/read.cgi/future/1602728979/23#17-21 YowaiAI Kiken
0134山口
垢版 |
2022/05/29(日) 20:21:13.28ID:q7dSoInl
一覧
http://rio2016.5ch.net/test/read.cgi/future/1543421218/94-99

】 ry レと Sparse Transformer ry 【 ry vol.39
http://m.youtube.com/watch?v=CBZWzQVcXE4?t=1340#bPdyuIebXWM#12:20#50XvMaWhiTY ttp://rio2016.2ch.net/test/read.cgi/future/1651850587/568

 
技術的特異点/シンギュラリティ203【AGI・脳】 ( 実質 4 スレ )
http://rio2016.2ch.net/test/read.cgi/future/1631585037/#1543421218/64-65#1504872499//39
技術的特異点/シャ塔Mュラリティ204【技術・AI】 ( 実質 208 スレ )
http://rio2016.2ch.net/test/read.cgi/future/1632054584/#650#1614237161/16-17
技術的特異点/シンギュラリティ【総合】 210 ( 実質 214 スレ )
http://rio2016.2ch.net/test/read.cgi/future/1651850587/

 
弱い AI ( 特化型 AI ⇔ ジェネラリスト AI ) ⇔ AGI ⇔ 強い AI
http://rio2016.2ch.net/test/read.cgi/future/1595501875/100#1595501875/60 YowaiAI ( TokkaGataAI , JenerarisutoAI ) <-> AGI <-> TuyoiAI
弱い AI 世界線
http://rio2016.2ch.net/test/read.cgi/future/1602728979/48# YowaiAI SekaiSen

http://rio2016.2ch.net/test/read.cgi/future/1504872499/90 Yuugou <-> TagguTiimu
http://rio2016.2ch.net/test/read.cgi/future/1588812167/30-32 Utyuu Karada

 
>>前スレ 脳オルガノイド
http://rio2016.2ch.net/test/read.cgi/future/1651850587/313-387#(313-314,387)
* 士郎正宗著オリオン P.5 : 脳利用エンジン ?
* 庵野秀明監督トップをねらえ! : イルカ脳利用エンジン
* 弐瓶勉著 BIOMEGA : 脳利用エンジン
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況