• BPnet
  • ビジネス
  • IT
  • テクノロジー
  • 医療
  • 建設・不動産
  • TRENDY
  • WOMAN
  • ショッピング
  • 転職
  • ナショジオ
  • 日経電子版
  • PR

  • PR

  • PR

  • PR

  • PR

AIと倫理

AIを「汎用AI」と「専用AI」に分けるのは間違いだ (2/3)

日立製作所の研究開発リーダーが語る脱・AI脅威論

浅川 直輝=日経コンピュータ 2017/05/24 日経コンピュータ

AIの汎用度が段階的に発展していくとすると、今はどのような水準にあるのか。

 我々の分類で言えば、「H」を含めた現行のAIの技術レベルは「レベル2」に当たる。

 レベル1は、レコメンドや質問応答など目的を特化させたAIだ。通常のプログラムに機械学習のライブラリを組み込み、データを学習して内部パラメータを変えることができる。この点で、通常のプログラムよりは汎用性は高い。

 レベル2は、人間が設定した目的と入力データに基づき、様々な問題について最適な解を見出せるもの。物流、小売、金融など様々な領域で横断的に使える汎用性がある。

 レベル3は、人間が設定した目的に基づき、データの収集や分析の手段をAIが自ら見いだすもの。学会の最先端ではレベル3の実現を目指している。

 レベル4は、人間が設定した目的を達成するため、問題の範囲(スコープ)をAIが独自に見出すもの。例えば「店舗の売上高を向上させる」という目的に対し、「商品の並びを変える」「店員の動きを変える」といった通常の問題範囲を超えて「店舗前に新しい道路を一つ通す」といった新たな発想ができるAIだ。これは誰も実現できていない。

 さらに、目的自体を設定するAIが現れれば「人間の知性に近いAI」と言えるかもしれないが、現状では空想の領域だ。

レベル3、4と汎用性が高まるにつれ「AIが人間の上司に代わって意思決定する」というイメージが強まるように見える。こうした汎用性の高いAIでは、どのような社会的、倫理的な問題が発生し得るか。

[画像のクリックで拡大表示]

 まず前提として「AIが意思決定する」あるいは「AIが運転する」など、AIを主語にし、擬人化して議論すること自体が誤解のもとだと考えている。AIはあくまで道具であり、その動作原理や制約を細かく決めるのは人間だからだ。

 自動運転AIで言えば、自動運転AIの開発者、AIを使うと決めたドライバー、交通法規を決める当局まで、あらゆる「人間」が何らかの責任を分担する。その点で、AIは一般的な道具と何ら変わらない。ある道具を使うことについて、道具の開発者、利用者、ルール決定者がそれぞれ応分の責任を負うのは当たり前で、目新しいことではない。

 AIを擬人化する議論は、AIをよく知る専門家同士がメタファーとして語るのはいいが、AIをよく知らない非専門家には誤解を与えやすいことに注意する必要がある。非専門家はどうしてもターミネーターやR2-D2をイメージしてしまい、全く生産的な議論にならなくなる。

 「AIが意思決定する」という言葉は、人間のあずかり知らないところで何かが決まってしまうような恐怖をあおるもので、議論で使うのは避けるべきだ。

 「ディープラーニングはブラックボックスで、判断基準が分かりにくい」といった議論があるが、私から言わせればこれほど分かりやすい技術はない。「目的となる数値と予測の誤差が少なくなるよう内部パラメータを調整する」という仕様自体は明確だからだ。この仕様に基づくAIの判断をどう使うか、決めるのは人間だ。

あなたにお薦め

連載新着

連載目次を見る

今のおすすめ記事

  • 【記者の眼】

    戸籍のマイナンバー対応を阻む2つの壁

     住民票と並んで個人にとってなじみの深い公的書類に戸籍がある。その戸籍をマイナンバーに対応させるための法制化の取り組みが本格化した。住民票や課税証明書と同様に、マイナンバーに基づく情報連携によって行政機関への戸籍謄抄本の提出を不要にして、国民の利便性向上と行政事務の効率化につなげるのが狙いだ。

ITpro SPECIALPR

What’s New!

経営

アプリケーション/DB/ミドルウエア

クラウド

運用管理

設計/開発

サーバー/ストレージ

クライアント/OA機器

ネットワーク/通信サービス

セキュリティ

もっと見る