この特集のいくつかの記事で触れたように、ディープラーニングをはじめとするAIの技術が飛躍的に進歩したのは、ハードウエアの発達が1つの要因だ。GPUと呼ばれる、高速の並列処理に適したプロセッサー半導体を載せたサーバーが、大量のデータを扱う機械学習に適しているのだ。

では日本企業が実際に、GPUサーバーを使ってAIシステムを立ち上げるなら、どのような選択肢があるだろうか。データセンター(DC)については、答えは下表のとおりだ。アマゾン、グーグル、マイクロソフトというグローバルにクラウドサービスを提供している米ガリバー3社以外では、ヤフー傘下のIDCフロンティア(IDCF)と、独立系のさくらインターネットの2社が利用可能だ。意外に少ないと感じるのではないか。

少ない理由の1つは、AIブームが話題先行の局面にあり、実際にサーバーを使う企業がまだ限定的なこと。もう1つはGPUサーバーのエネルギー消費量が大きく、発熱問題などがあることだ。このため通信系や電機メーカー系の大手DCは、GPUサーバー自体は一部導入しているものの、大規模なサービス展開はためらうようだ。

熱暴走でシステムダウン