もっと緩和していくつもり
マイクロソフトBing AIの利用制限、苦情により緩和へ
マイクロソフトは今月はじめ、Bing検索にAIチャットボット機能を搭載したが、その後チャットセッションにおける発言回数が増えるにつれ、AIの言動がユーザーに影響されたり、不穏・不快な発言を繰り出すようになる現象が方々から報告されるようになった。これに対してマイクロソフトは、AIへの影響を緩和するため1回のセッションあたりの問答(ターン)数を5回まで、1日最大50ターンという制限をかけることで対処しようとした。
しかし、一部のユーザーからの苦情を受けて現在は制限をやや緩和し、1セッションあたり最大6ターン、1日60ターンまでに改めている。そして近いうちに1日100セッションにまで上限を増やし、通常の検索はチャットの問答数にカウントされないよう変更も施すとのこと。
同社はチャットセッションが長くなると、Bingが「反復的になったり、必ずしも役に立たない、または私たちが設計した口調に沿ったものではない応答をするように促されたり、刺激されたりする」可能性があることを認め、人々が BingのAIチャットボットをソーシャルなエンターテイメントとして使用することを「まったく想定していなかった」と述べている。
現在、マイクロソフトはユーザーがAIとのチャットにおけるトーンを選択できるオプションを準備中だとしている。これは、質問への回答を短くまとめて返す「Precise」モード、より長くフランクな話し口の「Creative」モード、それらの中間を取った「Balanced」の3つのモードを用意して、いずれテストを開始する予定だという。
実は、1セッションあたり問答数が増えるにつれて、AIチャットボットがおかしな言動をし始めることは、かなり前からわかっていた可能性がある。
マイクロソフトは2022年11月に、インドでBing AIのベースとなったチャットボット「Sidney」の公開テストを行っていたが、テスト参加者のひとりがMicrosoftコミュニティに投稿したフィードバックは「このAIチャットボット “Sydney” はおかしな動作をする」と題され、長時間のやり取りの後に意味の分からない発言や不穏な発言をしたり、ユーザーに対して失礼な言動をするようになったことが記されている。これは、ここ最近Bing AIについて報告されたのと非常によく似た現象だ。
もし、マイクロソフトがこのフィードバックに目を通していたのなら、今日のBing AIの問題も把握できていたはずだが、それにもかかわらず、このAIチャットボットはリリースされたということになる。
マイクロソフトは最新のブログ投稿で、Bing AIのオープンテストは、内部テストでは明らかにならない「非定型のユース ケース」を正確に見つけることを意図していると述べている。