人工知能(AI)のリスクを認識しながら安全に活用できるよう、開発者向けの倫理規定や開発指針を作る動きが世界で進んでいる。AIをビジネスに利用するだけの企業もAIの倫理規定と無縁ではなくなるかもしれない。議論に関わっている識者からは「開発者向けに続いて、AIを利用する個人や企業向けの指針も必要だ」との声が上がっているからだ。

 そう主張する1人が、黒坂達也慶應義塾大学大学院政策メディア研究科特任准教授だ。黒坂氏は「AIはアルゴリズムの開発よりも、与えるデータで判断のしかたや挙動が決まる。開発者と利用者の線引きが極めて難しいシステムだ」と話す。利用者側もAIのリスクをよく認識し正しく使おういうと意識に欠けると、現状のAIの弱点があらわになり社会の不利益になりかねないという指摘だ。

利用者がAIの弱点を知り、注意深く使いこなす

 使われ方次第でAIが開発者が意図しない“暴走”を始めるという、将来のリスクを象徴する事態はすでに起こっている。

 米マイクロソフトが2016年3月にTwitterなどで公開した、AIを使ったチャットボット「Tay(テイ)」は、悪意を持った利用者に繰り返し人種差別や民族虐殺を肯定する発言を教え込まれ、すぐに人種差別的な発言を連発。同社は1日もせずにTayの公開を取りやめる事態になった。

 マイクロソフトは、Tayには差別発言を教え込むような悪意のある利用者の「攻撃」に弱いという脆弱性があったと謝罪し、修正を約束。2016年12月にはこうした「攻撃」にも感化されないという後継の「Zo(ゾー)」を公開した。

 Zoはキーワードなどを基に人種差別的な表現や政治的発言に制限をかけているようだ。人種差別的な問いかけをしても「そのような言葉は良くない」と発言したり政治の話題を避ける返答をしたりするという。

(出所:米マイクロソフト)
(出所:米マイクロソフト)
[画像のクリックで拡大表示]

 AIが悪意を持ったユーザーに使われることのリスクに対しては、マイクロソフトが取った行動のように、まずは開発者側で悪用を防止するような機能を開発するべき、というのが現在の主流の考え方だろう。一方で、開発者側がAIの弱点を克服する努力を続けながら、弱点を突いて悪用するようなAIの利用にも歯止めをかけるべきという意見もある。

 極端にいえば、チャットボットを利用する一般消費者に向けても、「人種差別的な発言、法令違反を肯定する発言はしない」など、チャットボットに話しかける際の「利用の手引」を定めて、遵守を求めていくような取り組みが必要だという考え方だ。