人工知能(AI)が社会の構成員になる未来を見据えて、研究開発や利用に一定の指針や倫理規定を設けるべき、という議論が世界で巻き起こっている。

 政府機関では、欧州議会が2017年1月にAIも含めた「ロボット」に関するルール作りを勧告しており、将来は法制化に向かう可能性がある。個人情報保護などの法制化を勧告してきた実績を持つOECD(経済開発協力機構)は2017年秋からAIを議題に取り上げる方針だ。

 民間からはグーグルやIBM、マイクロソフトなどの米IT大手を中心に発足した「Partnership on AI」がAIの開発や利用段階で求められる倫理概念について議論を始めた。日本では、人工知能学会が研究開発で守られるべき「倫理指針」を2017年3月に公表している。

 一方で、特に政府がAIの倫理規定や指針を規定する動きには「AIの研究開発を萎縮させる」「SF(サイエンスフィクション)で語られるAI脅威論を現在の開発現場に当てはめるような、ナンセンスな議論がされている」など、一部の研究開発者から異論や批判も出始めている。

 日本で特に注意を集めたのが、総務省が推進する「AI開発ガイドライン(仮称)」に対する批判だ。素案作りを進める産官学の会議「AIネットワーク社会推進会議」にはAI開発ベンチャーのPreferred Networks(PFN)から西川徹社長兼最高経営責任者と丸山宏最高戦略責任者が参加していたが、その後構成員を退いた。

 丸山氏は会議での議論の模様を「機械学習の専門家が少なく、開発者の声が十分に反映されなかった」と批判したほか、ガイドライン策定が結果として日本でのAIの研究開発を萎縮させる事態に警鐘を鳴らしている。

 丸山氏ら一部開発者の批判や懸念に対し、ガイドライン策定を推進する総務省や関係者はどう考えているのか。そもそも日本からAIの倫理規定や開発指針を発信する意義はどこにあるのか。

 特集「AIと倫理」の第1回となる本記事では、会議の構成員としてガイドライン策定を推進する立場を代表して、情報通信事業のコンサルタントであるクロサカタツヤ氏(慶応義塾大学 特任准教授、企 代表取締役)に、開発者の批判を率直にぶつけた。

[画像のクリックで拡大表示]

 批判的な意見に対してクロサカ氏が強調したのは、開発ガイドラインの狙いはAIの開発者に多くの責任を負わせることではなく、むしろ開発者の責任を限定しながらAIの課題を解決していく点にあることだ。例えば「透明性」の確保には、AIの挙動がブラックボックスであることをある程度受け入れながら、事故が生じた時には原因究明プロセスを優先させる、などの狙いを込めたという。

現時点で「AIの法規制」はありえない

公開されたAI開発ガイドライン案の論点整理では、「AIの透明性、説明可能性を確保する」などが盛り込まれている。最終的にガイドラインは何らかの法制化につながるのか。

 こうした文言が並ぶと「先々は法規制になるのか」という懸念が出てくるだろう。しかし、最終的にガイドラインが示されたとして、この内容からの法制化は「ありえない」と断言できる。

 私は法学の専門家ではないが、この抽象的な理念から法制化に動くことは法理を無視しているといえるだろう。さらに誰を守るのかが明確でない法規制はありえない。ガイドラインは、AIを開発・利活用する際の規範について「私たち(日本)はこう考えます」と、理念を示したものと捉えてほしい。

PFNの丸山氏らが議論の進め方などを批判し、会議の構成員を退いた。「研究開発者の視点から開発ガイドラインへの懸念、批判」を多く指摘した格好だが、その点への見解や反論を具体的に聞きたい。第1に、分野特化で実用段階にある機械学習の技術と、実用段階にはほど遠い「汎用AI」の両方が混在して議論されていることに批判がある。

 まず、丸山氏は残念ながら構成員を辞めたが、会議での議論に対し(批判を)具体的に発言していることは歓迎したい。政府が指針を作るような動きに対しては様々な意見があるべきだし、具体的に指摘することが健全な議論を発展させる。

 翻訳や画像認識などに使われる機械学習のような分野特化型のAIは「弱いAI」、幅広い分野で人間以上の能力を発揮する汎用AIは基礎研究の段階で「強いAI」という分類方法もある。一つめの批判は、会議で弱いAIと強いAIの議論を一緒くたにし過ぎていたということだろう。非自律的な弱いAIを研究開発している人から見れば、基礎研究段階にある強いAIも想定した議論が行われると「何と荒唐無稽な話をしているのか」となる。言いたいことは理解できる。

 しかしこの二つを区別する意味がなくなるほどに、弱いAIも社会的に大きなインパクトを持つ姿が見え始めている。弱いAIと強いAIに共通するのは、データが連鎖するエコシステム全体で振る舞いが決まってくることだ。

 あるAIが吐き出したデータを別のAIが取り込んで学習するような「AI同士の連鎖」が既に始まっている。やがてAIだけで完結するフィードバックループ(閉じたデータの循環)が登場するだろう。チャットボットの分野ではそろそろボットだけで会話データを生成している例が出始めているかもしれない。

 その時に「非自律的な弱いAIだから大丈夫、AIの振る舞いは制御できる」「社会に甚大な悪影響を与えるシナリオは空想だ」と言い切れるだろうか。ガイドラインを議論する場で、「現在の技術で可能なことはここまで、議論もここまで」という区切り方は制限的すぎるのではないか。