監視カメラに映る犯人は明らかに体型が違う
デトロイト市警、顔認識AI使用で3件目の誤認逮捕。強盗カージャック犯と無実の妊婦を取り違え
デトロイト市警は2月、当時妊娠8か月だったポーシャ・ウッドラフ氏を、1月に発生した強盗およびカージャック容疑で誤認逮捕した。New York Timesによると、監視カメラに映った姿からこの事件の真犯人は妊娠していないことが明白だったにもかかわらず、警察は顔認識AIが犯人と一緒にいた人物の顔に一致すると判定したウッドラフ氏の元を訪れたとのこと。
ウッドラフ氏は逮捕時、子供を学校に送り出す準備をしている最中だった。警察に対して自分は身重でどう考えても強盗など無理だと説明し、容疑者が明らかに妊娠していたのか確認するよう求めたものの聞き入れられず、子供たちと婚約者の前で手錠をかけられたとのこと。そして無実の妊婦は携帯電話を押収され、拘束中に尋問を受けた。
保釈金10万ドル(約1400万円)をなんとか用立てたウッドラフ氏は、警察を出た後すぐに脱水症状を起こして病院に直行、症状がピークに達した際には心拍が低下し陣痛まで経験したと述べている。その後1か月がすぎて容疑は取り下げられたが、ウッドラフ氏はデトロイト市警察を管轄する市を相手に誤認逮捕で訴訟を起こした。
この事件はここ最近報告された顔認識AIによる誤認逮捕ケースの6件目の例であり、そのうち3件はデトロイトで発生しているという。しかも、誤認された6人はすべて黒人だった。デトロイト警察は年平均125回も顔認識AIを使用しており、そのほとんどは黒人容疑者を対象としているとNYTはデータを示して報道した。なお、ウッドラフ氏を犯人と判定した写真は、2015年に運転免許証の更新を忘れていて警察に呼ばれた時に撮影されたウッドラフ氏の顔写真だった。
アメリカ自由人権協会(ACLU)ミシガン支部のフィル・メイヤー弁護士は「デトロイト市警が、誤った顔認識技術を逮捕の根拠としており、それが誤認を引きおこしているにもかかわらず、いまだこの技術に頼っていることは非常に憂慮すべきことだ」と述べている。
一方デトロイト市警察所長のジェームズ・E・ホワイト氏は声明で「われわれはこの問題を非常に真剣に受け止めているが、追加の調査が必要であるためコメントは差し控える」とした。
顔認識AIソフトウェアには、特に白人でない人々に対して誤った結果を導き出す傾向があることが以前より報告されており、ハーバード大学は2020年に「顔認識技術における人種差別」と題して、顔認識AIが女性、黒人、および18~30歳の範囲で非常に制度が低下する傾向があることをブログ記事で指摘している。この記事では米国立標準技術研究所 (NIST)が独立した評価を行った結果、189種類の顔認識アルゴリズムで有色人種の女性に対して最も精度が低いことが判明したと報告されている。
2022年9月には、米国の議員らがアルゴリズムの透明性を規制する最初の試みとして、顔認識規制法案を議会に提出している。また法学教育の名門であるジョージタウン大学ロー・センターの2022年の報告書では、生体認証捜査ツールとしての顔認識は「人間の主観的な判断、認知バイアス、低品質または操作された証拠、および低精度なテクノロジーによる誤りが特に発生しやすい傾向がある」と述べられており、特に「法執行機関が想定する用途に確実に応えられるほど十分には機能していない」と指摘している。
こうした顔認識技術の問題は、特に人々の「自動化バイアス」と呼ばれる現象も加わって、さらに顕著になると言われている。自動化バイアスとは、自動化されたシステムや技術が必ずしも完全ではないと注意されているにもかかわらず、人々がそのシステムを無条件に信頼してしまう傾向を指す。
もちろん、顔認識AIの問題はデトロイトに限ったことではなく、同じような問題の発生により、サンフランシスコ、オークランド、ボストンなど一部の都市がその使用を禁止するに至っている。ただ、Reutersなどの報道によれば「犯罪の急増と開発業者からのロビー活動の増加」といった要因によって、再び顔認識技術導入の気運が高まりつつあるとされている。
ウッドラフ氏の弁護士は、警察は顔認識技術だけを根拠に捜査するのでなく、顔認識AIが提示した人物に関して、少しでも調べる必要性があることを強調し「人には常に、誰かよく似た別の人がいるものだ」と述べた。
- Source: New York Times
- via: Ars Techninca CNBC Popular Science