総務省が、人工知能(AI)の開発ガイドラインの策定に乗り出した。自動運転、チャットボット、マッチングなど分野を問わない共通の開発原則として、透明性や制御可能性、プライバシー保護などを企業に求める。

 同省は、論点を整理した文章を2016年末に公開した。2017年1月31日まで広く意見を募集する。同年6月末に案を取りまとめる考えだ。

 AIの開発指針を巡っては、欧米を中心に議論が進んでいる()。総務省は広く国内企業や専門家の意見を集めたうえで、経済協力開発機構(OECD)などに先進国共通のAI開発ガイドライン案として提案することで、国際的な議論を主導したい考えだ。

表 AIの開発に在り方に関する欧米の議論の例
AI開発指針、同時並行で議論が進む
表 AIの開発に在り方に関する欧米の議論の例
[画像のクリックで拡大表示]

 総務省が示す開発原則は、透明性、制御可能性、セキュリティ確保、安全保護、プライバシー保護、倫理、利用者支援、アカウンタビリティの八つだ。

 透明性の原則では、AIの挙動を後から検証できるよう、入出力データやログの保存など、技術の特性に合わせた「合理的な透明性」を求める方針だ。

 制御可能性の原則では、制御不能になるリスクがあるAIについて、人間や他のAIによる監視や停止などの機能を求める。セキュリティ確保の原則では、AIへのサイバー攻撃で利用者や第三者の安全に危害が及ぶリスクを評価したうえで、必要なサイバー攻撃耐性を実装するよう求める。

 これらの開発原則の普及策として、例えば企業が第三者機関の認定を受け、開発原則への適合性について認証を受ける、といった枠組みを想定する。AIが他者に損害を与えた場合、認定を受けたAIであれば、AI利用者の法的責任の減免する、などのインセンティブ設計があり得るという。