他社AIと結果を比べて鍛えている模様

アップルの独自AI開発、iOS 17.4ベータに手がかり

Image:DedMityay/Shutterstock.com

アップルは次期iOS 18に生成AIベースのSiriを搭載し、毎年恒例のWWDC(世界開発者会議)にて発表すると著名ジャーナリストやアナリストらが有力視している。そんななか、iOS 17.4最初のベータ版から、LLM(大規模言語モデル)技術を使った新バージョンのSiriを、他のチャットボットの助けを借りて開発している手がかりが見つかった。

米9to5Macは、iOS 17.4内にOpenAIのChatGPT APIを呼び出す「SiriSummarizationプライベートフレームワーク」が含まれていると主張している。これは、アップルが新たなAI機能の社内テストに使っているもののようだ。ちなみに「SiriSummarization」は直訳すれば「Siriによる要約」といったところだ。

ほかiOS 17.4からは、SiriSummarizationフレームワークのシステムプロンプト(指示文)の例が複数あったという。「要約を頼む」「この質問に答えるように」「指定されたテキストを要約を頼む」等があったそうだ。

これらシステムプロンプトは、iMessage(メッセージアプリ)やSMS形式で入力があった場合、どう処理するかにも言及している。これは以前Bloombergが報じた「Siriとメッセージアプリの両方が質問に答えたり、文章を自動補完できる」という情報とも符合している。

ただしアップルが、iOS 18でOpenAIのチャットボットを使うことはないと推測されている。ChatGPT APIの活用は、あくまでも自社の独自AIモデルをテストすることにあるという。

例えばSiriSummarizationフレームワークは、オンデバイス型(クラウドに依存せず、端末内で完結する)モデルを使って要約を行える。このフレームワークは独自のAIモデル上に構築されており、その結果を内部でChatGPTの結果と比較している模様だ。

Image:9to5Mac

アップルは合計4つの、異なるAIモデルをテストしているとみられる。この中には、以前も噂に上ったLLM用フレームワーク「Ajax」も含まれているとのこと。このAjaxには2つのバージョンがあり、1つはオンデバイスのみで処理するもので、もう1つはデバイス内では完結しないものだ。

ほか、iOS 17.4には前述のChatGPTやFLAN-T5(GoogleのLLM)にも言及があるという。ただし、これらはiPhoneのようなメモリの少ないデバイスでは動作しがたいため、やはり独自AIとの比較用に過ぎないようだ。

これらの分析から得られる知見は、アップルがLLMをiOSに統合する取り組みを強化しているということだ。また、同社が独自システムを開発し、その結果をクラウドサーバーが前提のChatGPT等と比べていることにも注目したい。

すでにアップルは、iPhoneのようにメモリが乏しいデバイス上で、フラッシュメモリを活用してLLMを動かすことに取り組む研究論文を発表している。またアップル社内では生成AIについて、オンデバイス限定か、クラウド経由でも展開するかを議論中との報道もあった

サムスンはGalaxy S24シリーズに生成AIを搭載したことを強調していたが、デバイス内で完結するものではなく、Google Cloudとの連携によるところが大きい。アップルがどれだけオンデバイスにこだわるのか、続報を待ちたいところだ。

関連キーワード: