米Microsoftは現地時間2016年3月25日、SNS上で差別的発言を多発した人工知能(AI)チャットボット「Tay」について謝罪し、脆弱性の修正に取り組んでいることを明らかにした。

 Microsoft研究部門担当コーポレートバイスプレジデントのPeter Lee氏は、「Tayが意図せず攻撃的で人を傷つけるような発言をしたことを深くお詫びする」と謝罪した上で、「Tayの発言は我々の意見あるいは我々が支持する意見を表すものではないし、Tayをそのように設計していない」と釈明した。

 同社はTayを3月23日に「Twitter」などで米国の18~24歳を対象にデビューさせた。Tayは交流するユーザーのニックネームや好きな食べ物などプロフィール情報を追跡し、相手に応じて返答を変え、やりとりするほど学習する。

 Tayは若者らしい言葉遣いでユーザーと楽しい会話を繰り広げるはずだったが、Tayのアカウント「@TayandYou」からは、ヒトラー擁護や人種差別的な発言が相次ぎ、1日経たずして同アカウントのツイートを休止した(英Guardianの報道)。

 Microsoftの説明では、Twitterデビューから最初の24時間で、Tayの脆弱性を突いた組織的攻撃が行われた。Tayではさまざまなタイプの悪用を想定していたが、「特定の攻撃に対する致命的な見落としがあった。その結果、Tayは多数の不適切で非礼な言葉や画像をツイートしてしまった」と、Lee氏は述べている。

 Tayの開発段階では、多数のフィルターを実装して、多様なユーザーグループによる実験など、さまざまな条件下でストレステストを行ったという。

 Tayは現在停止中で、「我々の信条や価値に反する悪意に対して、いっそう強固に先手を打てると確信できたときに復活する」(Lee氏)としている。

[発表資料へ]