フラッシュメモリを仮想RAMとして扱う技術など

アップル、iPhone上で「Apple GPT」実現に繋がる研究論文を発表

Image:Adrian Tusar/Shutterstock.com

アップルが社内で独自のAIチャットボットを開発していることは、7月に「Apple GPT」の噂が報道された後に、ティム・クックCEO自らが生成系AI技術に巨額の投資をしていると認めたため、すでに公然の事実と言える。

さらに、次期「iPhone 16」シリーズや「iOS 18」にLLMベースのAI機能を組み込むとの噂もあったが、それを裏付ける研究論文が発見された。

アップルの技術者らによる新たな論文は2つ。1つは「LLM in a flash: Efficient Large Language Model Inference with Limited Memory」と題されたものだ。その趣旨は、チャットボットAIのベースとなるLLM(大規模言語モデル)をフラッシュストレージ内に置くことで、そこからRAMに転送する必要あるデータ量を最小限に抑える手法である。

LLMは、特にRAMの容量が限られているスマートフォンにとって重荷となる。本論文では「モデルパラメータをフラッシュメモリに保存し、必要に応じてDRAMに取り込むことで、DRAM容量を超えるLLMを効率的に実行する」課題に取り組むとのこと。要は、フラッシュメモリを一種の仮想RAMとして扱うというわけだ。

そして、特許の主な狙いは「フラッシュメモリの動作と調和する推論コストモデルを構築し、フラッシュから転送するデータ量の削減と、より大きく連続したチャンク(固まり)でのデータ読み出し」の両面で最適化を導くというものだ。

2つ目のAI論文は、立体ビデオではない2Dの動画から、アニメーション化された3Dアバターを生成する方法を説明している。

通常、リアルな3Dアバターを作るには複数のカメラを置いて様々な角度から撮影し、それを組み合わせて3Dモデルを構築する必要がある。これを短い、ありふれた動画から行うアプローチである。

本論文は非常にテクニカルなもので、詳細まで読み解くのは難しいが、要はこれまでの方法よりもおよそ100倍速くできるという。「わずかな(50~100)フレームの単眼カメラ動画から、30分以内に静的なシーンと完全にアニメーション可能な人間のアバターを切り離すことを自動的に学習する」とのことだ。

これはまず、3Dアバターを使うMRヘッドセットVision Proでの活用があり得るだろう。また、iPhoneユーザーが自ら3Dアバターを作成し、様々な洋服をバーチャル試着できることにも繋がるかもしれない。

アップルの未発表製品に詳しいアナリストMing-Chi Kuo氏は、8月時点では「アップルが2024年にAIエッジコンピューティング(クラウドに依存しない)とハードウェア製品を統合する兆候はまだない」と述べていた。それでも、サムスンが次期「Galaxy S24」シリーズでAI機能をアピールすることがほぼ確実である以上、何らかの対応が迫られそうだ。

関連キーワード: