https://zdnet2.cbsistatic.com/hub/i/r/2018/10/20/39b41e82-91f1-4c46-acbd-bf6ffdbb7010/resize/370xauto/5747e621e6954148703aeb29e39399e9/image.jpg
Google AIの研究者は、粒子、文、画像内のオブジェクトなど、広範に考えられる多くの事柄が、エンティティ間の関係のグラフになっていると考えています。
Google Brain、Deep Mind、MIT、エジンバラ大学。
この考え方は、グラフネットワークがどの機械学習アプローチよりも大きいことです。
グラフは、個々のニューラルネットが持たない構造について一般化する能力をもたらす。

著者らは、「グラフは、一般的に、任意の(ペアごとの)リレーショナル構造をサポートする表現であり、
グラフ上の計算は、畳み込み層と再帰層が提供できるものを超える強い関係誘導バイアスをもたらす」と書いている。

グラフの利点は、潜在的により「より効率的なサンプル」であるということです。つまり、厳密なニューラルネットアプローチほどの生データを必要としません。
著者らは、著者がすべてを理解したと思っていると思わないように、この論文はいくつかの長引く欠点を列挙しています。
Battaglia&Co.は大きな疑問を提起しています。「グラフネットワークはどこから来ていますか?

深い学習は、生のピクセル情報など、多くの非構造化データを吸収するだけだと指摘しています。
そのデータは、世界の特定のエンティティに対応していない可能性があります。
彼らは、「感覚データから確実に個別のエンティティを抽出できる」という方法を見つけることは、 "エキサイティングな課題"になると結論づけています。

また、グラフはすべてを表現することができないことも認めています。
「再帰、制御フロー、条件付き反復などの概念は、グラフで表現するのは簡単ではなく、最小限の追加の前提が必要です。

おそらく、レジスタ、メモリI / Oコントローラ、スタック、キューなどを含むコンピュータベースの構造の模倣など、他の構造形式が必要になる可能性があります。

(以上翻訳終わり)