人工知能の軍事利用に対して、危機感が広がっている。先月アルゼンチンのブエノスアイレスで開催された人工知能学会で、人工知能を搭載した軍事兵器の開発を禁止すべきとの書簡が公開された。書簡は人工知能研究者やロボット開発者が共同で執筆し、業界著名人ら2万人の署名を集めた。

 “AI兵器”は高度なインテリジェンスを持ち、人間ではなく人工知能が攻撃対象を決める。火薬、原子爆弾に続く第三世代の破壊技術といわれ、国際連合を中心に、開発禁止の動きが広まっている。

書簡が主張する内容

出典: Northrop Grumman
出典: Northrop Grumman
[画像のクリックで拡大表示]

 この書簡は、「Autonomous Weapons」(自律兵器、以下AI兵器と記載)の開発を禁止すべきと提言している。AI兵器とは、人間が関与することなく、人工知能が標的を選定し攻撃する兵器だ。その事例として攻撃型ドローンを挙げている。攻撃型ドローンは、事前に定義した人物を探し、殺傷する能力を持つ。具体的な事例は示されていないが、米国海軍が開発している「X-47B」(上の写真)やその後継機「UCLASS」を念頭に置いている。

 これらは無人戦闘機で、パイロットの代わりに人工知能が、諜報活動や爆撃ミッションを遂行する。攻撃を受ける側としては、人間ではなくアルゴリズムに殺傷されることになる。戦争で人と人が殺し合うことは、人類が解決しなければならない永遠の課題だ。しかし、人工知能が人を殺すことは、それ以上に倫理的に重い意味を持つ。ここに、AI兵器に関する重大な問題が潜んでいる。