• BPnet
  • ビジネス
  • IT
  • テクノロジー
  • 医療
  • 建設・不動産
  • TRENDY
  • WOMAN
  • ショッピング
  • 転職
  • ナショジオ
  • 日経電子版
  • PR

  • PR

  • PR

  • PR

  • PR

AIと倫理

AI開発に法規制は不要、「ソフトロー」で統制すべきだ

法哲学の研究者に聞く、社会が技術をコントロールする方法

浅川 直輝=日経コンピュータ 2017/05/25 日経コンピュータ

 これから発展する人工知能(AI)のような技術をハードロー(法令)で規制すると、条文に多くのバグを盛り込むことになりかねない。その前に、専門家を集めてソフトローを作る――。

 法哲学を専門とし、総務省が主導する産官学会議「AIネットワーク社会推進会議」の構成員でもある慶応義塾大学 法学部の大屋雄裕教授は、同会議が策定するAI開発の指針案「AI開発ガイドライン(仮)」の意義をこのように解く。

[画像のクリックで拡大表示]

 大屋教授は、ITを含む技術の発展で社会や個人がどう変わるかという視点から、技術を統制する法制度のあり方を研究している。大屋教授に、AI開発ガイドライン策定の狙いと、法哲学の視点から見た「AIと倫理」を巡る論点を聞いた。



AI技術者の一部には、発展途上であるAIについて、政府がガイドラインという形で縛ることに反対する声がある。

 まず前提として、AI技術を社会としてどう統制するかが、既に世界的な議論になっている。

 第3次AIブームの中で、AIは実際にビジネスや社会の成果に結びついている。急速に発展するAI技術を社会がどう扱えばいいか、米国や欧州で既に検討が始まっている。

 世界で議論が始まっている問題について、過去の典型的なパターンは「日本は世界の議論についていけず、本来やりたいことができなくなる」というものだ。

 あるいは、日本が踏み込みたくない話題が前面に出てしまう懸念もある。AIやロボットの領域でいえば軍事利用だ。民生と軍事をフラットに扱うような指針が米国から出されれば、日本は受け止めきれないだろう。

あなたにお薦め

連載新着

連載目次を見る

今のおすすめ記事

ITpro SPECIALPR

What’s New!

経営

アプリケーション/DB/ミドルウエア

クラウド

運用管理

設計/開発

サーバー/ストレージ

クライアント/OA機器

ネットワーク/通信サービス

セキュリティ

もっと見る