先ごろ、日経BP主催のセミナーで「人工知能(AI)のビジネス応用」について講演した。ところが、会場からの質問の多くが、講演でわずかに触れただけだった「自動運転車と交通事故の責任」に関するもので、やや面食らってしまった。

 10月29日~11月8日開催の東京モーターショー2015では、国内の自動車メーカー各社が「2020年(頃)に自動運転を実用化する」と表明。新聞・テレビはこのニュースに付け加える形で、事故責任の問題についても取り上げ、関心が一気に高まったようだ。

 運転席に誰もいない「完全自動化」であれば、事故責任の問題はシンプルだ。事故の責任は乗客ではなく、開発企業が100%負うことになる。例えばDeNA・ZMP合弁のロボットタクシーは、ドライバーがいない状態で旅客を運ぶ「完全自動運転」のサービスを目指している。

 一方、ドライバーが運転席に座り、運転の一部を担う「半自動運転」では、製造物責任の一言で片付けられるほど問題は単純ではない。交通事故を起こした場合、事故の責任は運転手が負うのか? それとも、自動運転システムを開発した自動車メーカーが負うのか? その過失割合は? あるいは、エアバッグ欠陥問題と同様、システムを供給する部品メーカーが批判の矢面に立たされるのか…

 早くも、自動車メーカーの責任を問われかねない事態が現れている。米テスラ・モーターズは2015年10月、従来のテスラ車にソフトウエアアップデートの形で半自動運転の機能を導入した。ところが、ドライバーが運転席を離れて運転の様子を撮影し、動画サイトにアップするという無謀運転の事例が続出した。

 テスラは「ドライバーは、自動運転の間も常にハンドルを握る必要がある」「事故が起きた際の責任はドライバーが負うものとする」としているが、仮にこうした無謀運転で第三者が事故に巻き込まれた場合、「無謀運転を防ぐ機能が不十分だった」などとテスラの責任が問われないとは限らない。この記者の眼では、テーマをクルマの自動運転に絞る形で、「自動運転における健全な責任の問い方・問われ方」を考えてみたい。

ディープラーニングの「バグ」や「品質」を問うには?

 一般に自動運転システムは、交通事故を回避するために、以下のようなステップを踏む。

(1)状況の認識
 カメラや各種レーダーの情報を基に、「前方に障害物あり」「子どもが道路に飛び出しそう」といった状況を認識する。

(2)リスクの判定
 周囲の状況を基に、事故発生のリスクを判定する

(3)リスクの回避
 判定したリスクに基づき、急ブレーキ、減速、方向転換などの行動を取る