いまだに性的画像は完封できず

アップル、Grokアプリの削除を警告していた。性的ディープフェイク問題の舞台裏

多根清史

Image:miss.cabul/Shutterstock.com

2026年初め、イーロン・マスクのAI企業であるxAIが提供するX(旧Twitter)およびGrokアプリに対し、アップルがApp Storeからの削除を警告していたことが明らかとなった。

昨年末、XにGrok AIによる画像加工機能が追加されたが、これが写真内の人物(女性や未成年を含む)の服を脱がせるようなリクエストに応じることが判明し、物議を醸した。アップルは表向きには沈黙を保っていたが、米NBC Newsは、同社が米上院議員に宛てた書簡をもとに、舞台裏での対応を明らかにしている。

報道によると、アップルにはXおよびGrokアプリを削除すべきだという圧力がかかっていたという。同社は「苦情を受け取り、スキャンダルに関する報道を確認」した後、XとGrokの両チームに連絡し、「コンテンツモデレーション改善の計画」を求めた。これを受けてGrokアプリのアップデートが審査に提出されたが、「改善が不十分」として当初は拒否されたとされる。

その後も修正とリジェクトが繰り返され、「違反がおおむね解消された」と判断できる段階に達してから、ようやく最新のGrokアプリが承認された。そのやり取りは概ね次の通りである。

  • アップルは再提出されたアプリを審査し、Xは違反を実質的に解消したと判断したが、Grokアプリは依然としてコンプライアンスを満たしていない状態であった
  • アップルはGrokの提出を却下し、追加の変更が必要であること、さもなければApp Storeから削除され得ることを開発者に通知した
  • その後の対応と修正を経て、「Grokが実質的に改善された」と判断し、最新の提出を承認した

こうした詳細な舞台裏は、反発が最高潮に達していた時期にxAIが発表した一連の分かりにくいモデレーション変更(画像生成および編集の利用を有料サブスクユーザーに限定したことや、実在人物をビキニなど露出度の高い服装に加工する機能を技術的にブロックしたこと)の背景理解につながるものである。

しかし、NBC Newsは別の記事で、1月のピーク時と比べて量は大幅に減少したものの、依然として一部ユーザーが制限を回避し、タオル姿やスポーツブラ、ボディスーツ、バニーコスチュームなど、性的に強調された画像を実在人物の写真から生成できている事例が多数確認されたと報じている。

ここで注目すべきは、GrokのみならずX自体もApp Storeから消える可能性があった点である。日本ではXの利用者が他地域と比べても多く、この問題は今後も継続して注視する必要がある。

関連キーワード: