ソフトウェア

中国AI企業「DeepSeek」が長大な入力でも低コストを維持できるAIモデル「DeepSeek-V3.2-Exp」を公開


中国に拠点を置くAI企業のDeepSeekが、長大な入力に最適化したAIモデル「DeepSeek-V3.2-Exp」を発表しました。DeepSeek-V3.2-Expは同等のベンチマークスコアを記録する他のモデルと比べて大きな入力を与えられた際の計算効率がはるかに向上しています。


DeepSeek-V3.2-Expは「DeepSeek-V3.1」のアップデート版である「DeepSeek-V3.1-Terminus」をベースに開発されたモデルで、長コンテキストにおける学習および推論を最適化するスーパーアテンションメカニズム「DeepSeek Sparse Attention」を取り入れた実験的モデルとして位置付けられています。

DeepSeek-V3.2-ExpはDeepSeek Sparse Attentionの効果を検証するために学習構成がDeepSeek-V3.1-Terminusとそろえられています。DeepSeek-V3.2-ExpとDeepSeek-V3.1-Terminusのベンチマークスコア比較表を見ると、両者のスコアがほぼ一致していることが分かります。


一方で、長大な入力を受け取った際の計算効率やコスト効率には大きな差があります。以下のグラフはDeepSeek-V3.2-Exp(オレンジ)とDeepSeek-V3.1-Terminus(青)のコスト効率を比較したグラフで、横軸が一度に処理するトークン数、縦軸が100万トークン当たりのコストを示しています。DeepSeek-V3.2-Expの方がトークン数の増加に対するコストの増加を大幅に抑えられていることが分かります。


DeepSeek-V3.2-Expのモデルデータは以下のリンク先で公開されています。ライセンスは制限の緩いMIT Licenseを採用しています。

deepseek-ai/DeepSeek-V3.2-Exp · Hugging Face
https://huggingface.co/deepseek-ai/DeepSeek-V3.2-Exp

また、DeepSeek-V3.2-ExpはAPI経由での利用も可能で、API使用料金はキャッシュ無しの入力が100万トークン当たり0.28ドル(約41.6円)、キャッシュありの入力が100万トークン当たり0.028ドル(約0.42円)、出力が100万トークン当たり0.42ドル(約62.4円)です。

この記事のタイトルとURLをコピーする

・関連記事
DeepSeekが推論モデル「R1」をわずか4400万円でトレーニングしたと発表、512基のNVIDIA H800チップを80時間使用 - GIGAZINE

中国政府がDeepSeekの新AIモデル「DeepSeek-R2」をHuawei製チップで開発するよう求めたが失敗してリリースが遅れているとの報道 - GIGAZINE

中国製AI「DeepSeek」は中国政府の好まない相手向けにわざと低品質な回答を出力している可能性あり - GIGAZINE

GPT-5よりコーディング能力の高いAIモデル「Claude Sonnet 4.5」登場 - GIGAZINE

Alibabaがリアルタイムで音声会話できるAIモデル「Qwen3-Omni」やGPT-5と同等性能の画像認識AIモデル「Qwen3-VL」を公開、他にも言語モデルや画像編集モデルを一挙大量公開 - GIGAZINE

in ソフトウェア, Posted by log1o_hf

You can read the machine translated English article Chinese AI company DeepSeek releases Dee….