テスラ車の事故で自動運転の安全基準は変わるのか
米テスラ車が起こした死亡事故が、自動運転システムの安全基準に影響を与える可能性が出てきた。4月17日に米テキサス州で、テスラのセダン「モデルS」がカーブで曲がりきれずに木に衝突して炎上し、助手席と後部座席にいた2人が死亡した。運転席には誰も乗っていなかったとみられている。「半自動運転システム」(自動運転支援システム)は、ドライバーのミスによる事故を防ぐ一方で、ドライバーが性能を過大評価することによる危険性も指摘されてきた。今後、自動運転の安全を巡る議論はどう展開するのか――。
テスラ車はレベル2でも機能はレベル3以上
まず、テスラの自動運転システムの機能を整理しておこう。
自動運転については、米国自動車技術者協会(SAE)が0から5までの段階に分けて定義しており、一応、これが国際的な共通認識となっている。
テスラのモデルSに標準装備されている自動運転システム「オートパイロット」と、オプション(1万㌦)で購入できるFSD(完全自動運転向けの車載システム)は、いずれも「レベル2」の自動運転に分類される。
レベル2は、SAEでは「高速道路で車線合流する、前方に遅い車がいたらウインカーを出して追い越すなどの高度な技術を持つ車」と定義されている。運転主体はあくまでもドライバーであり、ハンドルに手を添えている必要がある。運転の責任もドライバーにある。
レベル3は、一定条件下で運転主体がドライバーではなくシステム(車両)になるという点で、レベル2とは大きく異なる(ただし、システムが自動運転の継続が困難になった場合はドライバーが運転操作を引き継がなくてはならず、ドライバーは常に運転操作を引き受ける態勢でいなければならない)。
レベル4は、エリア限定で完全自動運転を実施する車。そしてレベル5が、常に完全自動運転を実施する車だ。
ただ、SAEの規定は特定の技術や機能を定義しているわけではないため、実際の車両に適用される場合には、この分類が非常にあいまいになる。たとえば、手放しで車線変更や一般道の交差点の右左折(信号や歩行者を認識)ができても、メーカー側が「運転の責任はドライバーにある」とする限りは、レベル2となる。
テスラの自動運転はレベル2だ。だが、テスラのFSD搭載車は、無人で駐車場に車を止めたり、駐車場所からドライバーの元に無人で移動したりできる。標識を認識するだけでなく、信号機の色も識別して停止、発進ができる。交差点での右左折も周辺の車両や歩行者、バイクなどを認識して適切な進路決定を行う。高速道路の車線変更やジャンクションの乗り換え、インターチェンジの出入りも自動だ。障害物や幅寄せしてくる車など、危険を察知すれば、停止や回避行動を臨機応変に対応する。ドライバーがハンドルに手を添えているだけで、これらを車が処理してくれる。
分類としてはレベル2だが、実装されている機能はレベル3以上といってもよいほどだ。この点については従来から、「ユーザーで実験しながら技術開発をしている」「不完全な機能を市場にリリースしている」「適用範囲を広げすぎたことで、誤解・誤認によるユーザーの危険運転を誘引している」といった批判も多かった。
「誤ったイメージ」が事故につながる
4月17日に米テキサス州で起きたテスラのモデルSの事故については、米道路交通安全局(NHTSA)が調査中で、本稿執筆時点で詳細は分かっていないが、「運転席は無人だった」とされている。
テスラ車のオートパイロット機能は、運転席に人が乗ってハンドルに手を添えている必要があり、ハンドルから10秒以上手を離すと自動運転が解除されることになっている。こうしたことから、事故車両について同社のイーロン・マスクCEOは「オートパイロットは作動していなかった」「FSDは装備していなかった」との内容のコメントをツイッターに投稿している。
運転席が無人であったとしたら、ドライバーの過失・運行管理責任はまぬがれないと考えられる。テスラはオートパイロットもFSDもレベル2で、あくまで「ドライバーをアシスト」するものであるとして、「無人で走行可能」という説明はしていない。ただその一方で、マスク氏はメディアなどでオートパイロットやFSDについて、自動運転機能が高度化しており、ドライバーはほとんど運転する必要がないというメッセージを発信している。
NHTSAは、テスラの技術そのものよりも、「オートパイロット」という名称や発信の仕方がユーザーにあたかも「無人でも安全に運転してくれるシステム」と誤認させていることを問題視している。これを機に、メーカー側にも、今回のようなケースではオートパイロットをオフにするとともに、安全に強制停止する、といったフェールセーフ設計(万が一の場合に備えた設計)が求められる可能性は否定できない。
責任は誰が負う?ドライバーかメーカーか
日本では世界でいち早く自動運転車両(レベル3相当)に必要な要件を明確化するための法整備が進み、今年3月にはホンダが世界初のレベル3の搭載車を発売した。
前述したように、レベル3では、一定条件下で運転主体がドライバーではなくシステムになるが、システムが自動運転の継続が困難になった場合はドライバーが運転操作を引き継がなくてはならず、ドライバーは常に運転操作を引き受ける態勢でいなければならないこととされている。このため、特に「運転の引き継ぎ」の前後に事故が起きた場合の、責任の所在の位置づけが難しく、メーカー各社が二の足を踏んできたという背景がある。
今後、世界各国で法整備が進み、レベル3搭載車が市場に出回ると考えられるが、完全自動運転(レベル5)の実現までは、万が一の場合の責任の所在を巡る混乱が続くだろう。
一方、消費者は、これまで以上に自動運転に対する「過大評価」に注意が必要だ。「レベル3についてはスマホを見ながら運転しても捕まらない」といった現実的な問題に目を向けがちだが、これは危険だ。システムに責任があるといっても、車両の所有者・使用者としての運行管理責任まで無条件に免責になるとは限らない。
重要なのは、自動運転で「何ができるか」ではない。「何ができないのか(してくれないのか)」こそ、本質である。
(中尾真二・ITライター)