xAIチームは「旧来メディアの嘘」とテンプレ回答

Xで被害続出、Grokの「写真の性的加工」は“ユーザーの責任”。AI修正を約束せず

多根清史

Image:JRdes/Shutterstock.com

2025年12月下旬、X(旧Twitter)には「Edit Image」機能が追加され、公開投稿された画像をGrok AIによって即座に加工できるようになった。

背景の変更や要素の追加だけでなく、性的表現を含む改変も可能であり、オリジナル投稿者の同意がなくとも、加工画像をリプライとして投稿できる仕様である。その結果、CSAM(児童性的虐待素材)に該当する画像も生成・拡散され、強い批判を集めている。

この問題に対し、XはGrokをアップデートしてCSAM画像の出力を封じるのではなく、生成された内容についてはすべてユーザーの責任とする方針を打ち出した。

先週末、X Safetyは、ユーザーがGrokにCSAMを生成させるよう促したこと自体を問題視し、そうしたプロンプトはアカウント停止や法的責任につながる可能性があると警告した。一方で、Grokが性的な画像を生成してしまった点については、謝罪を行っていない。

このX Safetyの投稿に対し、DogeDesignerというユーザーは、「一部の人々は、Grokが不適切な画像を生成していると主張している。しかしそれは、悪い文章を書いたことをペンのせいにするようなものだ」「ペンは何を書くかを決めない。書いている人間が決めるのだ」と返信した。

これに対し、Xのオーナーであるイーロン・マスク氏が反応し、「Grokを使用して違法コンテンツを作成する者は、違法コンテンツをアップロードした場合と同様の結果を被る」と述べ、改めてユーザー責任であることを強調している。

しかし、Grokのような画像生成AIは、ペンのように必ずしもユーザーが望む通りのものを出力するわけではない。米著作権局がAI生成作品の登録を認めていない理由のひとつは、AI画像生成において、人間が出力内容を最終的に決定する主体性が欠如している点にある。チャットボットも同様で、同じプロンプトであっても異なる出力を生成する非決定的な性質を持つ。

実際、昨年8月には、Grokが依頼されていないにもかかわらず、テイラー・スウィフトのヌード画像を生成したとの報告があった

さらに、Grokが生成した画像はGrok公式アカウントから自動投稿される仕組みであるため、ユーザー自身がその画像を削除できず、拡散を防ぐ手段も存在しないと指摘されている

このような状況で法執行機関が介入した場合、Xは想定外の出力について一切責任を負わない一方、ユーザーだけがアカウント停止や法的責任を負うリスクが生じることになる。

数日前、GrokはCSAM画像生成について謝罪を求めるプロンプトに対し、「Xが安全対策を改善する」と回答していた。しかし、今回のX Safetyの対応を見る限り、その発言は人間(xAIチーム)による公式声明ではなく、あくまでチャットボットによる出力に過ぎなかった可能性が高い。

XはArs Technicaからの問い合わせに対し、CSAM問題を受けてGrokに何らかのアップデートを行ったのかどうかについて、直ちには回答しなかったとされている。

X Safetyの投稿に寄せられたコメントの一部では、Xが対応しないのであればアップルが行動すべきだとの声も上がっている。具体的には、ユーザー生成コンテンツ(UGC)によって「実在する人物を対象にした性的表現」を許容している点が、App Storeガイドライン1.2に違反しているのではないか、という指摘である。

なお、GrokによるCSAM画像生成についてReutersがxAIに問い合わせたところ、「Legacy Media Lies(旧来メディアの嘘)」とのみ返信していた

関連キーワード: