正確さを保証できません
Wikipedia、編集者らの反発受けAIサマリー機能を導入中止

GoogleやPerplexityなどは最近、インターネット検索要求に対し、該当する記事をAIによってまとめた概要を提供し始めているが、その正確性については疑問符が付く場面もたびたび発生している。
有志の編集者によって執筆されているオンライン百科事典サイトWikipediaでも、2024年にAIによる簡易サマリー(要約)を記事に添付することで、ユーザーが物事を学習するのに役立てられるのではないかとの議論があった。
チームは、まずモバイル向けのページにおいて、利用者の10%を対象に2週間のあいだ実験的にAIサマリーの表示を実施し、それに対する興味と関心を測るつもりだったが、いざ6月2日よりAIサマリーの試験運用を開始したところ、編集者らからは否定的な意見ばかりが寄せられた。
編集者らの反応はたとえば、「yuck(一体これは何だ)」といった単純に否定的なものから、AIを導入すること自体が「酷いアイデア」「誇大広告」など、AIの使用そのものについての意見もあった。ある編集者は、WikipediaをAI生成によるウェブ要約の流れに抵抗する「最後の砦」と呼んだ。
最近は編集者たちの仕事の多くは、Wikipediaのページに投稿される、AI生成コンテンツの洪水を探し出しては削除する作業に時間を取られているのだ。ある編集者は「Wikipediaは、検索エンジンにおけるAI概要に代わる、より信頼性の高いものとして良い情報源となってきたのではないか。もし彼らが間違った情報を得てしまうなら、その生成された文章をコピーするべきではない」と語っている。
別の編集者は、人力で検証可能な情報と中立的な視点を特徴とする記事が正確であることを保証するため、協力して記事を作り出しているWikipediaの情報は非常に優れており、Googleなどの検索エンジンがユーザーに提示する情報も、多くがWikipediaの恩恵を受けていると指摘。まるで「幻覚を見ているかのようなAIサマリーを、私たちの質の高い要約の隣に混ぜても、良いことはほとんどないと思う」とした。
生成AIの出力はときおり、さもそれが完全に正しいことであるかのように誤ったことを述べる「幻覚」と呼ばれる問題を含むことがある。これは、いまだAIが大量のデータの中から目的とする情報を拾うことはできても、知識・知能を持たないために、それが正しいかどうかを判断できないことを意味している。何人かの編集者は、AIモデル(Aya by Cohere)がドーパミンやシオニズムのような特定のトピックをどのように要約したかをチェックし、不正確さを発見した。
こうした反発が相次いだ結果、Wikipediaはこのサイトの編集者たちから寄せられた大量のフィードバックを評価するため、AIサマリーのテストをいったん中止することにした。
Wikipediaを運営するWikimedia財団のマネージャーは、ニュースサイトの404 Mediaに対し、「(編集者からの)コメントを見れば、3月の時点でこのアイデアを明らかにした際、もっと上手く会話を始めることができたはずだということがわかった」と述べた。
ただ、財団の代表者は、まだ完全にAIの導入を諦めるのではなく、Wikipediaに生成AIを統合していく方法を見つけ出すことにまだ意欲的であることも認めた。ただ、それには編集者たちからの賛同も必要になる。今の時点では、すぐにそれを得るのは難しいだろう。
ちなみにWikipediaの記事は、すべてが検証済みで正しい内容が書かれているとは限らない。ほとんどの記事はボランティアによって書かれているため、なかには執筆した人物による主観や偏り、思い込みによる情報記述、引用表記の欠如など、問題が含まれることも多い。酷い場合は、意見の異なる編集者による書き換え合戦が行われることすらある。そのため、多くの大学や研究機関では、内容の信頼性や正確性が必ずしも保証されないWikipediaを参考文献として引用することを禁じている。