自動運転車が引き起こした事故

Digg にシェア
Pocket

カリフォルニア州のDMV(陸運局)が、Googleなどの自動運転車が巻き込まれた事故のレポートを発表した。

それによれば、2014年10月から2015年8月までに計9件の事故が起こっているが、そのうち8件がGoogleの自動運転車のもので、残りの1件はDelphi Automotiveという自動車部品開発会社のもの。

人間が運転する自動車が自動運転車に追突したケースがほとんどで、自動運転車側に過失があったようには見えない事故だが、TechCrunchは、機械と人間の運転スタイルの違いから事故が起こったものと指摘している。

TechCrunchより
TechCrunchより

たとえば直近の8月20日の事故では、Googleの自動運転車(Lexus RX450h)が片側3車線の真ん中車線を走行中交差点に近づいたところ、歩行者が横断歩道を渡り始めたので速度を落としたら、その後ろで中央寄りから真ん中に車線変更をしてきた車(Tesla Model S)が追突してしまったというもの。

また別の、4月7日の事故では、Googleの自動運転車(Lexus RX450h)が赤信号の交差点で右折(カリフォルニア州では曲がろうとする方向に行く車がなければ赤信号でも一時停止後右折できる)しようとしてゆっくり進んだところ、曲がろうとする方向に行く直進車が近づいてきたので停止したら、その後ろから同様に右折しようとしていた車(BMW 3シリーズ)が追突したというもの。

いずれも、後続車を運転していた人間の不注意として片付けられそうな案件だ。

これに対しTechCrunchは、人間なら通常進むべきところで停まったり徐行したりしたために、後続車が追突してしまったものであることは明らかだと指摘する。機械が慎重すぎる、気が利きすぎるといったことが事故につながっているという。

機械の動作はプログラミング次第だから、人間の動作に近づけるようにすることは技術的には可能だろうが、あまり人間に近づけすぎると、それはそれで問題がありそうだ。

ちなみに、高速道路などではほとんどみんなが制限速度を少し上回る速度で走行している。律儀に制限速度を守ると渋滞したり追突の危険性が高くなるなどの問題も引き起こす。これと同じようなことが自動運転車によって引き起こされていると考えることができる。

ところで、自動運転車は制限速度を守るようにプログラミングされているのだろうか。BBCによれば、Googleの自動運転車は制限速度を時速10マイル(16km)までオーバーできるように設計されているそうだ。この辺は人間的だ。

どの部分を人間に近づけるべきか、どの程度人間に近づけるべきか、それが問題だ。