Anthropicも怪しいかも?
ChatGPT、Grokが生成した「Grokipedia」を引用元にしていることが判明。問題視される

OpenAIのChatGPTが使用している大規模言語モデルの最新バージョンGPT-5.2が、xAIのGrokが生成した記事を含むGrokipediaを情報ソースとして使用していることが判明した。
Grokipediaは、ほとんどの記事をオンライン百科事典であるWikipediaから流用しているようだが、一部のトピックはGrokが生成した情報に置き換え公開している。
そして、その置き換えられた項目のなかには、科学的コンセンサスに反する、既に誤りであると論証された内容であったり、様々な陰謀論や誤った思想を正当化し助長するような内容もある。特に、右翼の視点やxAI創設者イーロン・マスクの見解を助長するものになっていることが指摘されている。
The Guardianの報道によると、GPT-5.2は12件以上の質問に対し、Grokipediaから9回も引用したとのことだ。しかし、OpenAIの広報担当者はThe Guardianに対し、「公開されている幅広い情報源や視点から情報を集めることを目指している」と述べたとされる。
AIが生成した情報をソースとして生成AIをトレーニングさせると、そのAIが生成する情報が劣化し、「モデル崩壊(model collapse)」と呼ばれる現象を引き起こす可能性があることが数年前に指摘されている。
GPT-5.2は別にGrokipediaでトレーニングされたわけではないが、幻覚の問題が完全に解決されていない現在のAIが生成した情報を、正確性が求められる回答の引用元として用いることは、ユーザーにとってリスクでしかないはずだ。
また、ほとんどのユーザーはAIが生成した情報を疑いもなく受け入れ、示された引用元の確認をしないことも指摘されている。このため、ChatGPTがGrokの生成した、人間が直接編集していないGrokipediaの記事を引用することは問題になる可能性が否定できない。
生成AIが、別のAIが生成した情報を引用すると、今度はさらに別のAIがその引用された情報を引用元としてしまう。もし生成した情報が誤っていた場合、何が正しいかわからない状態に陥ってしまう可能性がある。
これでは、人間社会で「人づてに聞いた」出所不明の噂話が拡散されて「真理の錯誤効果(Illusory Truth Effect)」を生み出し、正確かつ証明された情報を無視してしまうのと同じだ。AIが事実の確認・検証を経ずに、他のAIが生成した情報を引用してしまうのが問題ないのなら、そのAIは信頼できないと考えるべきかもしれない。
ちなみにこの記事中で、OpenAIがThe Guardianに「公開されている幅広い情報源や視点から情報を集めることを目指している」と述べたことを伝えたが、そもそもインターネット上で公開されている情報がすべて正しいわけではない。
The Guardianは、一部のプロパガンダネットワークが「AIモデルに嘘を植え付けるために、大量の偽情報を流布している」ことを報じている。これは「LLMグルーミング」と呼ばれる情報操作戦術・攻撃手法で、Googleの生成AI Geminiは、2024年に中国共産党の公式見解をそのまま回答に書き出したことが報告されていた。
2025年にもロシアによるLLMグルーミングの問題を英国のシンクタンクが報告している。また、現在のSNSは投稿者の思想や不正確な認識、思い込みなどが含まれることが多い。もし、そんな情報をAIのトレーニングに使っているのなら、そのAIが出力する情報の正確性も低下していくだろう。
まだまだしばらくは、質問に対しAIが出してきた回答の正確性については、ユーザーが自分で確認しなければならないようだ。
- Source: The Guardian
- via: TechCrunch Tom's Hardware
