事件を起こす前から「殺りそうな人」と決めつけて注目するのは正しいことか
英国政府、まるで映画『マイノリティ・リポート』なAI殺人予測ツールを開発中

英国政府は、近い将来に重大な殺人事件を起こす可能性のある人物を特定するためのAIアルゴリズムを開発している模様だ。この「sharing data to improve risk assessment(リスク評価を改善するためのデータ共有)」プロジェクトは、司法省(MoJ)、内務省、グレーター・マンチェスター警察(GMP)、そしてロンドン警視庁の強力により進められているという。
このプロジェクトの存在は、市民の自由・人権推進を行う団体Statewatchが見つけ、情報公開請求によって開示された文書でその仕組みの一部が明らかになった。
2002年に公開されたトム・クルーズ主演のSFサスペンス映画『マイノリティ・リポート』では、超能力者が犯罪の発生を予知し、警察組織が事前に(つまり犯行が起きる前に)犯人を逮捕するという矛盾した状況が描かれていたが、今回のプロジェクトは(有効に機能すれば)それに似た状況を生み出す可能性が考えられる。
Statewatchによれば、このプロジェクトには自傷行為や家庭内暴力・虐待に関する詳細な個人情報など、犯罪で有罪判決を受けていない人々10万~50万人のデータが警察から提供されて使われているという。共有された情報にはメンタルヘルス、中毒、自殺、障害といったデリケートなトピックも含まれているようだとThe Guardianは伝えている。
もともと「homicide prediction project(殺人予測プロジェクト)」と呼ばれていたとされるこのプロジェクトについて、英司法省は治安向上に役立てることを期待している。
一方、Statewatchはこのプロジェクトを「冷酷でディストピア的」と評した。同団体の研究者ソフィア・ライアル氏は、「犯罪を予測するアルゴリズムシステムは、本質的に欠陥を含むことが、これまでに何度も行われた研究からも明らかだ」とし、「警察や内務省のデータに残る人種差別的な傾向を含むデータを使って強化されたアルゴリズムは、刑事法制度の根底にある構造的な差別を浮き彫りにし、強調することになる」と述べた。
さらに「この種の他のシステムと同様、人種差別や低所得者層への偏見をコード化し、人々を凶悪犯罪者としてプロファイリングする自動化ツールを構築することは深く間違っており、メンタルヘルス、中毒、障害に関する機密データを使用することは、非常に侵入的で憂慮すべきことだ」と強調した。
ただし、The Guardianからの問い合わせに対して、法務省の担当者は「プロジェクトはあくまで研究目的のものであり、有罪判決を受けた犯罪者に関する既存のデータを使用して設計され、保護観察中の人々が再び深刻な暴力を犯すリスクをよりよく理解するのに役立つと考えられている。近日中に報告書がまとめられ、発表される予定だ」と回答している。
過去には、警察が報告書の作成にAIを使い、事実と違っていたり偏向した内容の書類が作成されて問題になったり、街中に設置したマイクから銃声を検知して犯罪発生を検知するAIシステム「ShotSpotter」の誤検出で冤罪を量産して問題になったり、Clearview AIの顔認識AIシステムでプライバシー無視の市民監視システムを採用して問題になったりするなど、実績上、法執行機関とAIの相性は最悪と言わざるを得ないのが実情だ。今回のAIシステムも、市民から支持を得るのは難しそうな気配だ。
- Source: The Guardian
- via: Engadget
- Coverage: WhatDoTheyKnow