>456 ー 200418 2206 44NYJY/7
>Laboro.AI、日本語版「BERT」モデル --オープンソースで公開
> http://japan.zdnet.com/article/35152526/

>620 ー 200426 1712 G7ebbOWY
>読解問題を解かせる、機械読解データセット「SQuAD1.1」。
>成績 (リーダーボード)上で日本のAI研究グループのモデル「LUKE」が1位。
>グーグルとCMUが開発したXLNetを超 。問題設定を難 「SQuAD2.0」で13位。
>どちらも人間のスコアを超
>
>http://rajpurkar.github.io/SQuAD-explorer/

>622 ー 200426 1731 4twfbA+9
>http://ai.googleblog.com/2020/03/more-efficient-nlp-model-pre-training.html
> \>Google Brainとスタンフォードは、XLNetやALBERTを超えたNLPモデル \> ?高速・高精度な自然言語処理モデル「ELECTRA
> \>?低精度な生成器により入力を置換 で、文全体から効率的に学
> \>?RoBERTaの約1/4の学習 同等の性能
>
> >効率 、 \>>4日間で1つのGPUで高精度にトレーニングできる小 ELECTRAモデルを実験 。
> >トレーニングに多 TPU 要 大規模モデルと同じ精度を達成 ませんが、 \>>「ELECTRA- ry 」は十分に機能し、GPTよりも優 、 計算量は1/30
>http://i.imgur.com/TUtIx5d.png

http://rio2016.2ch.net/test/read.cgi/future/1586071044/73-79#-87 GuuguruMiina / TousokuHonnyaku
http://rio2016.2ch.net/test/read.cgi/future/1586071044/501-524# AI/AL GAFAM IBM
http://rio2016.2ch.net/test/read.cgi/future/1586071044/734-740#1583435188/89 BirudaabaaguKaigi
http://rio2016.2ch.net/test/read.cgi/future/1586071044/935-963#(935,959,963) AI001950 / Isuraeru AI/ML Guuguru / Sinpo OopunAI