GPUとともにAI演算をサポート
アップル、iPhone20周年モデルに“AIメモリ”採用か

アップルは、iPhone20周年モデルに向けて複数の技術革新を開発中とされているが、その中でも最重要の技術の一つが、モバイル向けハイ・バンド幅メモリ(HBM)であると、韓国ETNewsが報じている。
HBMとは、複数のメモリチップを垂直に積層し、「TSV(Through-Silicon Vias)」と呼ばれる微細な垂直配線で接続することで、従来のDRAMに比べて飛躍的に信号伝送速度を高めたメモリ技術である。現在は主にAIサーバーで使われており、GPUとともにAI演算をサポートするため「AIメモリ」とも呼ばれている。
これをスマートフォン向けに最適化した「モバイルHBM」は、極めて高速なデータ転送を可能としつつ、消費電力を抑え、メモリの物理的な占有面積も小型化できるよう設計されている。
今回の報道によれば、アップルはオンデバイスでのAI処理性能を強化するため、将来的にiPhoneのGPUユニットにモバイルHBMを接続する構想を検討しているという。この技術により、大規模言語モデル(LLM)の推論処理や高度な視覚タスクなどをデバイス上で低遅延かつ省電力で実行できる可能性があるとのことだ。
すでにアップルは、サムスン電子やSKハイニックスといった主要DRAMサプライヤーと計画について協議を進めている可能性があるとされる。サムスンは「VCS(Vertical Cu-post Stack)」、SKハイニックスは「VFO(Vertical wire Fan-Out)」と呼ばれる新世代のパッケージング技術を開発中であり、いずれも2026年以降の量産開始が見込まれている。
ただし、製造上の課題はいくつか残されているようだ。モバイルHBMは現在主流のLPDDRメモリと比べて製造コストが非常に高く、また、iPhoneのような薄型デバイスでは発熱や放熱の制約が大きな障壁となる。さらに、3D積層構造とTSVはパッケージングの難易度が高く、歩留まりの確保も簡単ではない。
それでも、アップルがこのモバイルHBMをiPhone20周年記念モデルに投入すれば、同時に計画されている「4面曲面ディスプレイ」技術と相まって、文字通りの「大変革」として市場の大きな注目を集めることになりそうだ。