「核の脅威」も含みます
OpenAI、AIの「壊滅的リスク」に対処するための新部門を設立
OpenAIは、AIが引き起こす可能性のある「壊滅的なリスク」に対処するための専門の新部門を社内に設置すると発表した。壊滅的なリスクには、核の脅威も含まれているという。
同社は「われわれは、現在最先端のモデルを超える “フロンティアAIモデル” が、全人類に利益をもたらす可能性を秘めていると信じている」としつつ「しかし、それらは今よりもさらに深刻なリスクももたらす可能性がある」と述べている。
そして、今回設置を発表したこの準備的なチームは、AIが何か重大な問題を引き起こすことを想定し、対処するために「track(追跡)、evaluate(評価)、forecast(予測)、protect(保護)」の各手段を提供するとのことだ。
MITのCenter for Deployable Machine Learningディレクターの役割を休職してこのチームを率いることになるアレクサンダー・マドリー氏は、将来のAIシステムがもたらすさまざまな危険に対応することを目指すとしている。
想定されるリスクとして、サイバーセキュリティから化学・生物学・放射線学的、そして核の脅威が挙げられている。これは国際法上、使用が禁止される兵器を指しているように見える。それらが誤発動することがないようにAIシステムを監視することが、このチームの主な目的になるのだろうか。なお、チームが対処するリスクは、AIが人を欺こうとするような事柄や、自立複製および自己適応するAIも含まれる。
また、壮大でSFのようなシナリオだけでなく、より実用的な懸念にも焦点を当てるとのこと。広範なコミュニティから意見や提案を求めるとともに、優秀な提案には2万5000ドル(約375万円)の賞金と、このチームでの職を獲得する機会を提供するとしている。
OpenAI CEOのサム・アルトマン氏は以前より、AIによって引き起こされる壊滅的な出来事の可能性について警告している。5月にはGoogle DeepMindのデミス・ハサビス氏など、著名な研究者らとともに、AIによる「絶滅のリスク」を警告する声明に署名していた。