ハードウェア

Geminiの開発にも使われているGoogleの第7世代AIチップ「Ironwood」が一般提供開始へ


Googleが第7世代TPU「Ironwood」の一般提供を数週間以内に開始することを発表しました。IronwoodはAI処理に特化したチップで、高速な学習および推論を低コストで実現できます。

Ironwood TPUs and new Axion-based VMs for your AI workloads | Google Cloud Blog
https://cloud.google.com/blog/products/compute/ironwood-tpus-and-new-axion-based-vms-for-your-ai-workloads?hl=en


TPUはGoogleが独自開発しているAI処理に特化したプロセッサで、GeminiやVeoといったGoogle製AIの開発および運用に活用されているほか、Googleのクラウドサービスを通じて世界中のユーザーがTPUを利用できるようになっています。


2025年4月に発表されたIronwoodは1チップ当たり192GBのメモリを搭載しており、2024年12月に一般提供が始まったTrillium(TPU v6e )と比べて1チップ当たりの性能が4倍以上に向上しています。

Googleが推論モデルの処理に最適化した第7世代TPU「Ironwood」を発表、1チップ当たり192GBのメモリを搭載し1ポッド当たりの性能は最強スパコン「El Capitan」の24倍以上 - GIGAZINE


Ironwoodは一般提供に先駆けて複数の企業に先行提供されています。例えばClaudeシリーズを開発するAI企業のAnthropicはIronwoodを含む100万台以上のTPUを利用する契約を締結しています。

GoogleとAnthropicがクラウドパートナーシップを正式発表、100万台以上のTPUの利用拡大でコンピューティング能力増大 - GIGAZINE


Ironwoodはチップ同士を9.6Tbpsという速さで相互通信させることが可能で、最大9216個のチップでネットワークを形成することができます。以下の写真は9216個のIronwoodを搭載したスーパーポッドの一部を撮影したものです。


また、GoogleはArmベースのCPU「Axion」を用いた仮想マシン「N4A」とベアメタルサーバー「C4A metal」も発表しています。それぞれの詳細は以下のリンク先で確認できます。

Axion-based N4A VMs now in preview | Google Cloud Blog
https://cloud.google.com/blog/products/compute/axion-based-n4a-vms-now-in-preview?hl=en

New Axion C4A metal offers bare metal performance on Arm | Google Cloud Blog
https://cloud.google.com/blog/products/compute/new-axion-c4a-metal-offers-bare-metal-performance-on-arm?hl=en

この記事のタイトルとURLをコピーする

・関連記事
OpenAIが「Google製AIチップを採用する予定はまだない」と表明、初期段階のテストは実行中 - GIGAZINE

Googleが推論モデルの処理に最適化した第7世代TPU「Ironwood」を発表、1チップ当たり192GBのメモリを搭載し1ポッド当たりの性能は最強スパコン「El Capitan」の24倍以上 - GIGAZINE

GoogleのAI処理チップ「Trillium」がGoogle Cloud経由で利用可能に、旧世代TPUと比べて4倍の学習性能を発揮 - GIGAZINE

Googleが人工衛星にAIチップを搭載して宇宙に打ち上げる「Project Suncatcher」を提唱 - GIGAZINE

in ハードウェア, Posted by log1o_hf

You can read the machine translated English article Google's 7th generation AI chip 'Iro….