OpenAI依存から脱却か

マイクロソフト、独自AIモデル「MAI-Voice-1」「MAI-1-preview」を発表

多根清史

Image: Mamun_Sheikh / Shutterstock.com

マイクロソフトは、社内でトレーニングした2つの新たなAIモデル「MAI-Voice-1」と「MAI-1-preview」を発表した。MAI-Voice-1は同社初の自然音声生成モデルであり、MAI-1-previewはエンドツーエンドで訓練されたファウンデーション(基盤)モデルである。

MAI-Voice-1は1つのGPUで1分間の音声を1秒未満で生成できる高速モデルで、未来のAIインターフェースとして音声に注力している。すでにCopilot DailyやPodcast機能で活用されており、そのデモはCopilot Labsで体験可能だ。

一方のMAI-1-previewは、約1万5000台のNVIDIA H100 GPUでトレーニングされ、現在LMArenaで公開テスト中である。さらにCopilotの特定テキスト用途に向けたプレビュー提供が準備されており、今後は指示に従い有用な回答を返す能力が強化される見通しだ。

Semaforとのインタビューで、マイクロソフトのAI部門リーダーであるムスタファ・スレイマン氏は、この2つのモデルは効率性と費用対効果を重視して開発されたと語っている。たとえばxAIのGrokなど、他のファウンデーションモデルは訓練に10万基以上の同チップを必要としている。

マイクロソフトはOpenAIの技術に数十億ドル規模の投資を行い、CopilotもGPT技術を基盤として構築されてきた。にもかかわらず独自モデルの開発に踏み切ったのは、この分野で独立した競争力を確立したいという狙いからだろう。両社の関係に亀裂が生じつつあることは、複数の情報源が報じている。

マイクロソフトの独自AI技術がOpenAIと肩を並べるには時間を要する可能性がある。しかしスレイマン氏はSemaforに対し、同社が「四半期ごとに投資を続ける巨大な5年間のロードマップを持っている」と語った。

もっとも、AIバブルが崩壊する可能性が指摘されるなかで、マイクロソフトには迅速な展開が求められるだろう。

関連キーワード: