10月10日、都内で「インテル デベロッパー・カンファレンス 2018」が開催された。毎年この時期、インテルは国内の開発者を対象にした技術イベントを開催しているが、従来はコンパイラなど開発ツールの解説が中心だったのに対し、近年はデータセンター向けの半導体製品や、IoT関連の話題を増やしている。そして、今年最も力が入っていたのはAIだった。

根岸史季
ディレクター
 AIの分野でインフラ部分が話題に上る時、AIエンジンに大量のデータを入力してモデルを構築する「学習」の段階にスポットが当たることが多い。これに対してインテルは、データの取り扱いに関わる全体のコストを最適化すべき、というメッセージを強めている。

 基調講演で同社のAI戦略を説明したAI/HPC担当ディレクターの根岸史季氏は、AIの価値について「これまでのデータ解析は人が行っていたため、人が最大のボトルネックとなっていた。解析を自動化できたら、データから爆発的な価値を引き出せる。AIとは、解析行為のイノベーションである」と説明。しかし現実にはデータのハンドリングコストが高く、データが爆発的に生成されているにもかかわらず、全データの1%程度しか解析できていないと指摘する。

 同社がこの日紹介した最新技術は、コンピューティングノード間を高速に接続する「Omni-Pathファブリック」、次世代のネットワークアダプター、SSDよりも高速な不揮発性メモリー「Optane DC」など。新しいワークロードであるAIを高速かつ現実的なコストで実行するには、データの移動や保存にかかわる技術にも目を配る必要があるとしている。

 サーバー用CPU「Xeon」も取り上げられたが、真っ先にアピールされるものではなく、さまざまな技術の中の一つという位置付け。根岸ディレクターは「AIのパフォーマンスに関しては、よく『CPUは学習が遅い』と言われる」と述べ、専用GPUに比べると学習の性能では劣ることを認めるが、「CPUでは数十倍、数百倍の時間がかかるというイメージをもつ人もいるが、実際には数倍の違い。そのために専用インフラを用意するのか。データセンターはAIだけをやればいいわけではない」とクギを刺す。

 根岸ディレクターは同社のAI戦略を「『AIが速い』ではなく、『AIも速い』」と端的に表現。AIにおいて学習は重要なフェーズだが、それ以外にもデータ加工などさまざまな処理を行う必要があり、データセンターには他のワークロードもある。全体の効率化という観点でみると、汎用的で柔軟性の高いCPUのほうが投資効率は高いと主張した。(日高 彰)