突然ですが、ちょっとこれアップしたかったんだ(^^;

http://wired.jp/2017/04/18/google-building-ai-chip/
かくしてグーグルは独自の「AI専用チップ」を開発した──音声認識や「AlphaGo」を支える驚異の技術 TEXT BY CADE METZ WIRED(US) 2017.04.18
(抜粋)
あらゆる領域で人工知能(AI)の可能性を探るグーグルが直面したのは、AIの性能が高くなればなるほど膨大な規模のデータセンターが必要になるということだった。彼らの解決策は「AI専用チップ」をつくること。巨大なインターネット帝国を支える小さなチップの、知られざる貢献とは?
約6年前、グーグルがアンドロイド携帯に新しい音声認識機能を搭載した際、同社のエンジニアたちは現状のネットワークの規模では全然足りないと悩んだ。世界中のアンドロイド携帯で1日たった3分でも新しい音声検索機能が使われると、現状の2倍のデータセンターが必要になると彼らは気づいたのだ。
当時グーグルは、膨大な量のデータ解析によって特定のタスクを学習できる複雑な数学的システム、ディープニューラルネットワークで音声認識サーヴィスを開始したばかりだった。

グーグルはデータセンターの面積を倍に増やす代わりに、「Tensor Processing Unit」(TPU)と呼ばれる、ディープニューラルネットワークを運用するためのコンピューターチップを自社で開発することにした。
「このチップによって、よりエネルギー効率の高いソリューションが提供できるようになるはずです」と語るのは、チップ開発に携わった70人を超えるエンジニアのうちのひとり、ノーム・ジュピだ。半導体の効率を計測する指標「TOPS/Watt」(電力効率指標)で考えると、このTPUの性能は標準のプロセッサーの30〜80倍である。

2016年5月にグーグルがこのカスタムプロセッサーを初めて発表した際、詳細はほとんど明らかにされなかった。だがいま、ジュピとチームのメンバーたちはプロジェクトの詳細を公開し、どのようにチップが動作し、どのような問題が解消されるかを説明している。
このチップの出現によって、コンピュータープロセッサー界にも大きな変化が現れることになる。グーグル、フェイスブック、マイクロソフトといった巨大インターネット企業がディープニュートラルネットワークを使用したサーヴィスをどんどん開発していくにつれ、AIモデルの訓練・実行のためのチップが必要になっていた。