ハードウェア

QualcommがAIアクセラレータ「AI200/AI250」を発表、データセンター向けAIチップ市場に参入へ


Qualcommが、データセンター向けの次世代AI推論最適化ソリューションとして、AIアクセラレーターカードを含むラックソリューション「Qualcomm AI200」と「Qualcomm AI250」を発表しました。これらはラック規模での性能と優れたメモリ容量を提供し、AI推論において業界をリードする総所有コストの低さを実現します。

Qualcomm Unveils AI200 and AI250—Redefining Rack-Scale Data Center Inference Performance for the AI Era | Qualcomm
https://www.qualcomm.com/news/releases/2025/10/qualcomm-unveils-ai200-and-ai250-redefining-rack-scale-data-cent

Qualcomm Launches AI250 & AI200 With Huge Memory Footprint For AI Data Center Workloads
https://hothardware.com/news/qualcomm-ai250-ai200-huge-memory-footprint-ai-data-center

Qualcomm is turning parts from cellphone chips into AI chips to rival Nvidia | The Verge
https://www.theverge.com/news/807078/qualcomm-ai-chips-launch-hexagon-npus

AI200もAI250もチップ単体ではなく、冷却装置や電源もすべて1つのラックに収めたラックソリューションという形で発表されました。熱効率のための直接液冷、スケールアップのためのPCle、スケールアウトのためのイーサネット、および安全なAIワークロードのための機密コンピューティングを特徴とし、ラック単位の消費電力は160kWです。


AI200は、大規模言語モデルやマルチモーダルモデルなどのAIワークロードに最適化された性能を提供し、低い総所有コストを実現するために設計された、目的特化型のラックレベルAI推論ソリューションです。カードあたり768GBのLPDDRをサポートし、高いメモリ容量と低コストを実現することで、AI推論における優れた拡張性と柔軟性を提供します。AI200は、2026年に商用提供される予定です。


AI250は、(PDFファイル)ニアメモリコンピューティングに基づく革新的なメモリアーキテクチャを採用し、AI推論ワークロードに対して、有効メモリ帯域幅を10倍以上高め、消費電力を大幅に低減することで、効率と性能に飛躍的な進歩をもたらすとのこと。これにより、ハードウェアの効率的な利用を可能にする分離型AI推論(disaggregated AI inferencing)を実現し、顧客の性能とコストに関する要求を満たすとQualcommはアピールしています。AI250は、2027年初頭に商用提供される予定です。


QualcommのAIプロセッサは、NVIDIAやAMDのGPUと同様に、最大72個のチップが単一のコンピューターとして機能するラック内で動作できます。これらのAIプロセッサは、モバイルデバイスやノートパソコン向けのチップに搭載されている、QualcommのHexagon NPUに基づいて開発されているとのこと。

AI200とAI250は、主に携帯電話やノートパソコン、タブレット、および通信機器用のプロセッサを製造してきたQualcommにとって新しい挑戦であり、NVIDIAやAMDといった競合企業がひしめくデータセンター向けAIチップ市場への新たな進出を示すものでもあります。

すでにQualcommは、サウジアラビア政府系ファンドが出資するAI企業「Humain」がすでにAI200およびAI250のラックソリューションを200メガワット規模で購入していることを明らかにしています。


Qualcomm Technologiesの技術企画・エッジソリューション・データセンター担当上級副社長兼ゼネラルマネージャーであるドゥラガ・マラディ氏は、「AI200とAI250により、Qualcommはラック規模のAI推論で可能なことの再定義を進めています」と語り、「私たちの革新的な新しいAIインフラストラクチャソリューションは、前例のない総所有コストで生成AIをデプロイすることを可能にすると同時に、現代のデータセンターが要求する柔軟性とセキュリティを維持します」と述べました。

また、マラディ氏は、「Qualcommの豊富なソフトウェアスタックとオープンなエコシステムのサポートにより、最適化されたAI推論ソリューション上で、既にトレーニングされたAIモデルを開発者や企業が統合、管理、拡張することがこれまでになく容易になります。主要なAIフレームワークとのシームレスな互換性とワンクリックモデルデプロイにより、Qualcomm AI200とAI250は、摩擦のない導入と迅速なイノベーションのために設計されています」とコメントしました。

この記事のタイトルとURLをコピーする

・関連記事
Qualcommがオープンソースプラットフォームを手がけるArduinoを買収 - GIGAZINE

Qualcommがスマートグラス向けチップの「Snapdragon AR1+ Gen 1」を発表、AIのローカル処理を念頭に設計 - GIGAZINE

GoogleとAnthropicがクラウドパートナーシップを正式発表、100万台以上のTPUの利用拡大でコンピューティング能力増大 - GIGAZINE

OpenAIがAI処理チップを独自開発するべくBroadcomと戦略的パートナーシップを締結、10ギガワット級のチップを生産予定で契約金は数千億円 - GIGAZINE

Qualcommがスマートグラス向けチップの「Snapdragon AR1+ Gen 1」を発表、AIのローカル処理を念頭に設計 - GIGAZINE

Qualcommが次世代MR向けチップ「Snapdragon XR2+ Gen 2」を発表、GoogleとSamsungが搭載デバイスを開発中 - GIGAZINE

Xiaomiが完全ワイヤレスのARグラス「Xiaomi Wireless AR Glass」を発表、ジェスチャー操作&スマホとNFCでタップするだけでペアリング - GIGAZINE

in AI,   ハードウェア, Posted by log1i_yk

You can read the machine translated English article Qualcomm launches AI accelerators 'AI200….