コインテレグラフによると、マイクロソフトは15日付のブログ記事で、新たな人工知能(AI)チップ「Microsoft Azure Maia AI Accelerator」を発表した。このチップはAIタスクやジェネレーティブAI向けに設計されており、マイクロソフトのクラウド上の計算ワークロードを想定したCPU「Microsoft Azure Cobalt」とともに発表された。同社はこの2つのチップを、マイクロソフトのインフラシステムのための「最後のパズルピース」と呼んでいる。このチップは2024年初頭に登場する予定で、当初はマイクロソフトのデータセンターに設置され、CopilotやAzure OpenAI Serviceの動力源となる。
マイクロソフトのクラウド+AIグループ担当エグゼクティブ・バイスプレジデントであるスコット・ガスリーは、同社のデータセンターへのチップの統合について、パフォーマンスを最大化し、サプライチェーンを多様化し、顧客にインフラの選択肢を提供するためには、インフラスタックの各レイヤーを最適化・統合することが極めて重要だとコメントした。マイクロソフトが支援するAI企業であるOpenAIは、新しいMaia 100 AIアクセラレータと、そのワークロードが新しいインフラストラクチャの上でどのように実行されるかについてフィードバックを提供したと報じられた。オープンエイのCEOであるサム・アルトマンは、これらの新しいチップは、同社のAIモデルをユーザーにとってより「高性能」で「安価」にするのに役立つだろうと述べた。
マイクロソフトの新チップに加えて、同社は世界の2大チップメーカー、NvidiaとAMDとのパートナーシップを拡大すると発表した。マイクロソフト社は、これらのメーカーの高性能チップの一部を自社の事業に統合する計画だ。今回の発表は、ハイテク・AI業界の多くの大手企業が半導体チップの増産を進めているなかでのことだ。サムスンは10月、カナダのスタートアップ企業Tenstorrentと共同でデータセンター向けのAIチップと知的財産を開発していることを明らかにした。その直後には、OpenAIがAIチップの内製化を検討しているという報道もあった。直近では、10月22日に世界的なハイテク企業IBMが新しいAIチップを発表した。このチップは22倍のスピードアップを実現し、現在のどのチップよりもエネルギー効率が高いと報告されている。