「日本の人工知能学会には、自律型致死性兵器システム(LAWS)の縮小・削減の可能性に関して交渉を開始する8月、11月の国連会議を支持していただきたい――」

 2017年5月24日、愛知県で開催された人工知能学会全国大会の公開討論セッション。先端技術の安全性を研究する「Future of Life Institute(FLI)」の リチャード・マラー氏によるビデオメッセージに、会場は静まりかえった。

写真●2017年度人工知能学会全国大会のセッション「公開討論:人工知能学会 倫理委員会」
写真●2017年度人工知能学会全国大会のセッション「公開討論:人工知能学会 倫理委員会」
[画像のクリックで拡大表示]

 人工知能(AI)と倫理を語る際、世界で頻繁に議論される一方、日本ではほとんど話題にならないテーマがある。AIを含む自律型システム(autonomous systems)の軍事利用という問題だ。

 海外の討議はどこまで進んでいるのか。日本が加わる余地があるのか。AIの軍事利用を巡る議論の動向に迫る。

「アシロマAI原則」で軍拡競争の抑止をうたう

 FLIは、起業家のイーロン・マスク氏や宇宙物理学者のスティーブン・ホーキング氏が顧問を務めることで知られる非営利の研究組織だ。

 2017年1月に、23項目からなるAIの開発原則「アシロマAI原則」を公表した。著名な人工知能(AI)研究者など約120人を米カリフォルニア州アシロマに集め、参加者の大半が同意した項目をとりまとめたものだ。

*FLIがアシロマで会議を開いたのは、遺伝子組換え技術の研究者が生命倫理の観点から研究を一部制限するガイドラインを自ら策定したことで科学史上有名な「アシロマ会議」にならったものとみられる。

 そのアシロマAI原則の項目の一つに「自律型致死性兵器の軍拡競争は避けるべき」というものがある。

 自律型兵器(AWS:autonomous weapon systems)をおおざっぱに言えば、機械学習やプログラムに基づき、攻撃目標を自律的に選択する兵器を指す。この点で、攻撃目標を人間がセットするタイプのミサイルや無人攻撃機とは異なるとされる。特に軍事拠点の破壊や人間の殺傷を目的にしたものは、自律型致死性兵器(LAWS:lethal autonomous weapon systems)と呼ばれる。

 マラー氏はLAWSについて「使用するよりも防御する方が難しい点で、生物兵器や化学兵器に似ている。(中略)普及すれば、世界は地政学的に不安定化する恐れがある」と主張する。スティーブン・ホーキング博士が「AIは人類の脅威になる」と頻繁に主張するのも、主に自律型兵器を想定してのことだ。

日本ではほとんど議論されず

 日本では2016年から2017年にかけ、AIと倫理を巡る議論が相次ぎ行われ、報告書などの形で公開された。だが、AIの軍事利用について正面から議論したケースはほとんどない。

 例えば、内閣府が2017年3月に公開した「人工知能と人間社会に関する懇談会 報告書」、総務省が2017年6月14日に公開した「AIネットワーク社会推進会議報告書2017(案)」、いずれもAIの軍事利用は議論の俎上に載せていない。

 AIの軍事利用を意識したものとしては、人工知能学会 倫理委員会が2017年2月に公開した倫理指針の中に「意図に反して研究開発が他者に危害を加える用途に利用される可能性があることを認識(するよう努める)」という表現があるくらいだろう。

 総務省が主導する産官学会議の構成員である慶応義塾大学 法学部の大屋雄裕教授は、AIの軍事利用というテーマについて「日本にとって踏み込みたくない話題」と認める。「民生と軍事をフラットに扱うような指針が米国から出されれば、日本は受け止めきれないだろう」(大屋氏)。