Don't be evil.
Google、「AI原則」から『武器に使わない』記述を削除
Googleは2月4日、2018年に自社で定めた「AI Principle(AI原則)」を記したウェブページから、人々を傷つけるための武器や人々の監視に用いることを禁じると述べていた部分を削除したことを明らかにした。
Washington Postが報じたところでは、GoogleはAI原則を記した文書には、以前は「私たちが追求しない用途」という項目があり、そこには「全般的な危害を引き起こす、または引き起こす可能性のある技術」「人を傷つける、または直接的に助長することを主な目的または実施とする兵器やその他の技術」「国際的に認められた規範に違反する監視目的で情報を収集または使用する技術」「その目的が国際法や人権の広く認められた原則に反する技術」を、追求しないとする文言が含まれていた。
しかし現在、同文書にその項目はなく、かわりに「責任ある開発と展開」と題した段落が追加され、「ユーザーの目標、社会的責任、広く受け入れられている国際法と人権の原則に沿った、適切な人的監視、デューデリジェンス、フィードバックの仕組み」を導入すると書いている。
以前の記述が具体的に禁止する使用例を示していたのに対して、新たに書き加えられた文章はAIの使用を禁止する話ではなく、より広範囲に、かつ具体性を控えた曖昧な表現で活用可能にすることを記している。またAI監視ツールに関しては「国際的に認められた規範」に反する技術を開発しないと述べるに止まっている。
AI技術の急激な進歩により、研究者やAIの権威たちは、この技術をどのように安全に管理するか、その方向性と商業的利益において追求すべきバランスや、人類全体に関わるようなリスクを効果的に防止するにはどのようにすべきかといった議論を活発に交わしている。
特に戦場や監視技術におけるAIの使用については、すでに自律的に人間を含む標的を発見・認識し、攻撃可能な兵器それが軍事利用可能なレベルに仕上がりつつある。そのため、広島と長崎以来見られなかった規模の殺戮が可能になると考える専門家もいるほどになっている。
AI原則の記述変更についてメディアからコメントを求められたGoogleの広報担当者は、それを説明・擁護する資料として、Google上級副社長のジェームズ・マニカ氏と、Google Deepmindを率いるデミス・ハサビス氏によるブログ記事を参考として示した。両氏は、2018年に発表したオリジナルのAI原則は、技術の進化に伴い更新する必要があったと述べ、いまや企業と民主的な政府が「国家安全保障を支援する」ために、AIに協力する必要があると主張している。
Googleが2018年にAI原則を定めたきっかけは、同社が米国防総省の軍用AIプロジェクト「Project Maven」にドローン映像を分析するAIソフトウェアを提供しようとしていることに、数多くの従業員が反対運動を起こしたことがきっかけだった。この運動で、Google従業員数十人が抗議のために会社を辞め、また数千人が国防総省との契約に反対する請願書に署名するに至り、Googleは契約を見送らざるを得なくなった。
ところが、喉元過ぎれば熱さ忘れると言うべきか、この騒ぎから3年後の2021年には、Googleは再び軍事関連の契約獲得を推進し始め、国防総省の「Joint Warfighter Cloud Capability (JWCC)」と呼ばれる軍用クラウドインフラの構築契約を獲得するために「積極的な」入札を行ったと言われている(この入札はマイクロソフトが獲得した)。さらに今年初めには、Washington Postなどが、Google従業員がイスラエル国防省と繰り返し協力し、政府によるAIツールの利用を拡大してきたことを明かす記事を報じた。
Googleは先日行われた決算報告で、2025年のAI関連プロジェクトに750億ドル(約11.5兆円)を費やすと述べた。これは、ウォール街のアナリスト予想を約30%も上回る額に膨れ上がっている。
Googleの創業者であるセルゲイ・ブリン氏とラリー・ペイジ氏は、同社設立当初に「Don’t be evil(邪悪になるな)」をモットーに掲げていた。しかしそのモットーは利益追求の波に押し流され、2015年に同社が持ち株会社として設立したAlphabetの下に再編された際に「Do the right thing(正しいことをする)」に塗り替えられた。