人工生命 Part1
■ このスレッドは過去ログ倉庫に格納されています
[20]
Tal Linzen、Emmanuel Dupoux、およびYoav Goldberg。
構文に依存する依存関係を学習するlstmsの能力の評価。
計算言語学協会のトランザクション、4(1):521535、2016。
[21]
デニス・ペーパーノ、ゲルマン・クルゼフスキ、アンジェリキ・ラザリドゥ、ゴック・クアン・ファム、ラファエラ・ベルナルディ、サンドロ・ペッツェル、マルコ・バローニ、ジェマ・ボレダ、ラケル・フェルナンデス。
ランバダデータセット:幅広い談話コンテキストを必要とする単語予測。
計算言語学会第54回年次総会の議事録(第1巻:長文)、第1巻、15251534ページ、2016年。
[22]
? ry OscarT臘kstr ry
Ankur Parikh、OscarT秣kstr 、Dipanjan Das、およびJakob Uszkoreit。
分解可能なアテンションモデル。 自然言語処理における経験的方法、2016年。
[23]
ジャック・レイ、ジョナサン・J・ハント、イヴォ・ダニエルカ、ティモシー・ハーリー、アンドリュー・W・シニア、グレゴリー・ウェイン、アレックス・グレイブス、ティム・リリクラッフ。
? ス ース読み取りおよび書き込みによるメモリ拡張ニュー ークのスケー ゙。
? 読み取りと書き込みがまばらなメモリ拡張ニューラルネッ ークのスケーリング。
読込書込がスパースな拡張記憶ニューラルネットワークそのスケーリング
ニューラル情報処理システムの進歩、ページ36213629、2016年。
[24]
ミンジュンソ、セウォンミン、アリファーハディ、およびハンナネハジシルジ。
質問応答のためのクエリ削減ネッ ーク。
arXivプレプリントarXiv:1606.04582、2016年。
[25]
Nitish Srivastava、Geoffrey E Hinton、Alex Krizhevsky、Ilya Sutskever、およびRuslanSalakhutdinov。
ドロップアウト:ニューラルネッ ークの過剰適合を防ぐ簡単な方法。
Journal of Machine Learning Research、15(1):19291958、2014年。 [26]
Sainbayar Sukhbaatar、Arthur szlam、Jason Weston、Rob Fergus。
エンドツーエンドのメモリネッ ーク。
C. Cortes、ND Lawrence、DD Lee、M。Sugiyama、およびR. Garnett、編集者、Advances in Neural Information Processing Systems 28、24402448ページ。 Curran Associates、Inc.、2015年。
[27]
Ilya Sutskever、Oriol Vinyals、およびQuoc V. Le。
? ry を使用したシーケンス間学習。
ニューラルネッ ークを伴ったシーケンスtoシーケンス学習
ニューラル情報処理システムの進歩、ページ31043112、2014年。
[28]
Ke Tran、Arianna Bisazza、およびChristof Monz。
? ry に再発す ry 。
階層構造をモデル化するために再帰することの重要性
NAACL'18、2018年の議事録で。
[29]
アシュシュ・ヴァスワニ、サミー・ベンジオ、ユージーン・ブレブド、フランソワ・ショレット、エイダン・N・ゴメス、ステファン・ゴース、リオン・ジョーンズ、オーカス ( ? 訳注
: ルーカス ) ・カイザー、ナル・カルクブレンナー、ニキ・パーマー、ライアン・セパシ、ノーム・シェーザー、およびヤコブ・ウシュコライト。
ニューラル機械翻訳用のTensor2tensor。
CoRR、abs / 1803.07416、2018。
[30]
Ashish Vaswani、Niki Parmar、Jakob Uszkoreit、Noam Shazeer、およびLukasz Kaiser。
イメージトランスフォーマー 、
2018年。
[31]
アシュシュ・ヴァスワニ、ノアム・シェーザー、ニキ・パーマー、ヤコブ・ウシュコライト、リオン・ジョーンズ、エイダン・N・ゴメス、ルカス・カイザー、イリア・ポロスキヒン。
? ry は注意だけです。
必要なのはアテンションだけです
CoRR、2017年。 [32]
ジェイソン・ウェストン、アントワーヌ・ボルデス、スミット・チョプラ、アレクサンダー・M・ラッシュ、バート・ヴァン・メリエンボーア、アルマン・ジョウリン、トマス・ミコロフ。
? ry :一連の前提条件のおもちゃのタスク。
AI完全な質問応答に向けて:前提条件のおもちゃ的タスクのセット。
arXivプレプリントarXiv:1502.05698、2015年。
[33]
ダニ・ヨガタマ、イーシュ・ミャオ、ガーボル・メリス、ワン・リン、アディグナ・クンコロ、クリス・ダイアー、フィル・ブランソム。
リカレントニューラルネットワーク言語モデルのメモリアーキテクチャ。
2018年、学習表現に関する国際会議で。
[34]
Wojciech ZarembaとIlya Sutskever。
? ry することを学ぶ。
実行 ( 訳注 : 汎用処理 ) する為の学習。
CoRR、abs / 1410.4615、2015年。
LaTeXML [ロゴ]によって生成
私たちが作っている新しいツールについて知りたいですか?
随時更新される場合は、メーリングリストに登録してください
申し込む
LaTeXMLの助けを借りて、Andreas JanssonとBen Firshmanによって構築され た。
GitHubに貢献してください
? ry より提供。
YLDのご厚意によりスポンサードされました
http://rio2016.2ch.net/test/read.cgi/future/1602728979/23#17-21 YowaiAI Kiken ■ このスレッドは過去ログ倉庫に格納されています