これから発展する人工知能(AI)のような技術をハードロー(法令)で規制すると、条文に多くのバグを盛り込むことになりかねない。その前に、専門家を集めてソフトローを作る――。

 法哲学を専門とし、総務省が主導する産官学会議「AIネットワーク社会推進会議」の構成員でもある慶応義塾大学 法学部の大屋雄裕教授は、同会議が策定するAI開発の指針案「AI開発ガイドライン(仮)」の意義をこのように解く。

[画像のクリックで拡大表示]

 大屋教授は、ITを含む技術の発展で社会や個人がどう変わるかという視点から、技術を統制する法制度のあり方を研究している。大屋教授に、AI開発ガイドライン策定の狙いと、法哲学の視点から見た「AIと倫理」を巡る論点を聞いた。



AI技術者の一部には、発展途上であるAIについて、政府がガイドラインという形で縛ることに反対する声がある。

 まず前提として、AI技術を社会としてどう統制するかが、既に世界的な議論になっている。

 第3次AIブームの中で、AIは実際にビジネスや社会の成果に結びついている。急速に発展するAI技術を社会がどう扱えばいいか、米国や欧州で既に検討が始まっている。

 世界で議論が始まっている問題について、過去の典型的なパターンは「日本は世界の議論についていけず、本来やりたいことができなくなる」というものだ。

 あるいは、日本が踏み込みたくない話題が前面に出てしまう懸念もある。AIやロボットの領域でいえば軍事利用だ。民生と軍事をフラットに扱うような指針が米国から出されれば、日本は受け止めきれないだろう。