中国政府との関係が近いリスクも

AI業界を震撼させたDeepSeek R1、訓練コストは約4300万円。人件費を徹底的に削減

多根清史

Image:Mijansk786/Shutterstock.com

中国のAIスタートアップDeepSeekが大規模言語モデル「R1」を発表した際、先進的AIモデルと同等以上の性能を低コストで実現したとうたわれ、世界のAI業界を震撼させた。米国のテクノロジー株は一時急落し、NVIDIA株は先端AIチップの供給元として影響を受け、時価総額が一時6000億ドル(約91兆円)失われたとされる。

それから約8か月後、DeepSeek AIチームが学術誌『Nature』に論文を発表し、DeepSeek R1のトレーニング費用と劇的にコストを下げた手法が明らかになった。R1は約29万4000ドル(約4310万円)と512枚のNVIDIA H800チップで訓練されたという。これはOpenAIなど競合モデルと比べても大幅に低コストである。

一般的にLLM開発の高コスト要因の1つは、人間による注釈やデモンストレーションにある。大量のテキストに正誤や分類を付与したり、高度な推論例を示す作業には膨大な時間と人件費がかかる。DeepSeekはそれを避け、試行錯誤型の強化学習を導入した。正解には高得点、不正解には低得点を与える仕組みで、数学やプログラミングのように正誤が明確な分野で特に有効だった。

この方法により精度は向上したが、思考プロセスは人間にとって理解しにくくなった。推論経路を説明させると英語と中国語が混在したり、1万語を超える長文が生成されることもあったという。さらに正解が明確な問いには強いが、主観的で解釈が分かれる課題には弱いとのことだ。

DeepSeekは「低コストかつ高性能」で注目された一方、中国政府との近さに懸念もある。米Washington Postの調査によれば、このモデルは中国政府が「敏感」とみなす対象に関しては重大なセキュリティ欠陥を持つコードの生成を拒否する一方、チベット・法輪功・イスラム国などに関しては安全性の低いコードを生成した事例があったという。

関連キーワード: