いずれもiPhoneやSiri依存

アップルが開発中と噂される、3つの「AIウェアラブル製品」

多根清史

Image:columbo.photog/Shutterstock.com

アップルは3種類のAIウェアラブルデバイスの開発を加速していると、米Bloombergが報じている。対象はAIスマートグラス、装着型のAIピンまたはペンダント、そしてAI搭載AirPodsである。いずれもiPhoneと連携し、より高度に進化したSiriと連動する仕組みになるとされる。

同社の未発表製品に詳しいMark Gurman記者によれば、これら3製品すべてにカメラが内蔵される。AIが装着者の周囲を「見る」ことが可能となり、周囲の状況に関する質問へ答えられるようになるという。

スマートグラス

これまでの噂どおり、MetaのRay-Banスマートグラスと競合する位置づけとされる。すでにハードウェアエンジニアリング部門内では試作機が配布されており、早ければ2026年12月に製造開始、2027年発売を目標としている。主な仕様は次のとおりである。

  • 高解像度の撮影用カメラと環境認識用の第2カメラを搭載し、Siriに周囲を「見せる」構成
  • 第2カメラは距離計測などLiDARに近い役割を担い、視界内の物体やテキストを解釈可能とされる
  • ディスプレイは搭載せず、音声ベースのインターフェースでSiriと対話する
  • 通話、音楽再生、写真・動画撮影、視界内のオブジェクトに関する質問、徒歩ナビ、イベントポスターなどのテキスト読み取りからカレンダー登録、コンテキスト認識リマインダー(現在地点や視界内の看板などを基に自動通知)、ライブ翻訳などを想定
  • フレームはアップル自社設計で、高級素材(アクリル要素など)を用いたプレミアム路線
  • 複数サイズ・カラーを用意し、バッテリーや各種コンポーネントはフレーム内に内蔵。終日利用可能な「AIコンパニオン」を目指す

AIピン(ペンダント)

開発は初期段階にあり、計画が中止される可能性もあるとされる。継続された場合、最速で2027年の投入が見込まれている。

  • 低解像度カメラを搭載し、周囲を常時記録してAIへ環境情報を提供する。ただし写真・動画撮影用途ではない
  • マイクを備え、Siriとの会話が可能。社内では「iPhoneの目と耳」と呼ばれているという
  • あくまでiPhoneアクセサリとして位置づけられ、単体製品ではない
  • 専用チップを搭載するが、計算能力はApple WatchよりAirPodsに近く、重い処理はiPhone側が担当する
  • スピーカーを搭載してSiriとの双方向会話を実現する案もあるが、採用は未定
  • 衣服やバッグにクリップで装着、あるいはネックレス穴を利用してペンダントとして装着する想定

カメラ付きAirPods

AIピンよりも開発が進んでおり、早ければ今年中の登場もあり得るとされる。AIピンと同様、情報取得を目的とした低解像度カメラを搭載し、写真撮影用途ではない。

将来的にはARディスプレイを備えたスマートグラスも計画されているが、実現は数年先とされる。別の情報源は、両眼OLEDoSディスプレイを搭載し2028年発売になると予測している。

さらに家庭向けAIデバイスとして、ホームハブ型スマートディスプレイや、より大画面とロボットアームを備えた上位モデル(2027年想定)も計画中とされる。加えて、新型HomePodや「家庭のセキュリティおよび自動化向けのコンパクト屋内センサー」も開発中と伝えられている。

なお、カメラ内蔵Apple Watchの開発は中止されたとの以前の報道も再確認されている。テスターからは、衣服の袖や手首の位置から適切な撮影アングルを確保するのが難しく、このコンセプトは実用的ではないと判断されたという。

関連キーワード: