話それてすまない

詳しくは知らないが、AIの要求する計算資源が、今の技術では追いついていない
GPUも十億くらいかかるのに、電気代はその九倍くらいとバカにならない
メモリのバント幅とレイテテンシーがネックあるから、今のノイマン式ではどうにもならない
だから、メモリから情報取り出して計算するのでなく、メモリ内で直接計算するチップ作るファブレスマーケットをグーグルが構築中らしいな
まあ、90-130nmと性能はよろしくないが、電気代が浮くから、シリコンバレーの仲間とウィンウィンで折半して、やるらしいから分かる
ただ、それでもAIの計算資源でのスケーリングはもう頭打ちだろう
画期的な技術が来るまでは、削減、削減なのでは