618ZXW

ウェイモは「ハイテク自動車事故」に見舞われた。同社のロボタクシーが路上でロボットと衝突し、1分間沈黙した後、静かに走り去った。

ロボタクシーがロボットと衝突するなんて聞いたことがない。

ロサンゼルスの路上で「テクノロジーによる自動車事故」が起きた。

ウェイモのロボタクシーが右左折中にロボットと衝突した。1分間の沈黙の後、両車両は静かに後退した。ネットユーザーたちはこの光景を「最も平和な交通事故」と冗談交じりに呼んだ。

しかし、冗談はさておき、さらなる疑問が湧いてきます。このような事故が起きた場合、誰の責任になるのでしょうか?誰の責任なのでしょうか?

世界初!ロボタクシーがロボットと衝突。

最近、ソーシャルメディアプラットフォームRedditで、あるビデオが話題になっています。

ロサンゼルスの交差点で、Serveの配達ロボットが道路脇に到着し、横断歩道に乗り入れようとした。その後、ロボットは方向転換するためにわずかに後退したが、動画から判断すると、赤信号を無視していたようだ。

偶然にも、Waymo ロボタクシーが右折しようとしていたため、両者は衝突した。

事故後、2台の車両は1分間膠着状態のままだったが、その後ロボットは数歩後退し、ロボタクシーを迂回して現場から立ち去った。

自律走行車とロボットの衝突は、確かに世界初の事例であり、多くの人から「ロボット戦争」と呼ばれている。

動画を投稿した人物によると、この驚くべき光景は彼のドライブレコーダーで撮影されたもので、そのため鮮明ではないとのこと。

負傷者が出なかったこの事故がなぜ起きたのか、避けることができたのかどうか疑問に思う人もいるだろう。

ウェイモは、ロボットが道路脇で停止し、その後、右左折車線に入り、右左折中のロボタクシーと衝突したと主張して反論した。

広報担当者は、ドライバーシステムは、さまざまな種類の道路利用者や物体を分類・区別し、それに応じて適切な行動をとることができる、慎重で防御的なドライバー向けに設計されていると述べた。

たとえば、運転手は子供や歩行者がいるときはより慎重に「行動」するようになります。

事故当時、ウェイモのドライバーシステムは配達ロボットが無生物であると観察し、正しい判断を下していた。

Waymoのドライバーが急ブレーキをかけたにもかかわらず、衝突は時速4マイル(時速約6.4キロメートル)の速度で発生しました。

事故のもう一方の当事者である、 Uberからスピンオフしたロボット配達会社Serve Roboticsも反応を示し、事故当時、ロボットが遠隔監視下にあったことを確認したと述べ、これは交差点におけるServeの安全戦略の1つに沿ったものだとした。

しかし、誰が問題の責任者であったかを含め、事故に関する詳細は未だ明らかにされていない。

真相が判明するには、カリフォルニア州運輸局(CA DMV)または米国道路交通安全局(NHTSA)からの事故報告書を待たなければならないかもしれない。

「ロボット戦争」の責任者は誰ですか?

このような「無人」事故は、さらに曖昧な疑問も引き起こしている。

誰が責任を負うべきでしょうか?

自動運転車の責任問題も再び世間の注目を集めている。

事故の原因が、ロボットが交通規則に違反したり、禁止区域に進入したりするなど、ロボットの行動によるものか、ロボット自体の技術的な欠陥や故障によるものであれば、事故はロボット自体の行動によるものである可能性が高い。

その場合、責任はロボットの製造元または所有者にある可能性があります。

ロボタクシーのシステム障害が適時に特定または対処されない場合、またはロボタクシーの運転戦略が規制に準拠していない場合、ロボタクシーの製造元または運営者が責任を負うことになります。

ロボットとロボタクシーが責任を共有することも可能であり、その場合は比例配分する必要があります。

このような状況では、ロボタクシーが「事故を回避する能力がより高い当事者」とみなされ、規制の決定次第ではより大きな責任を負わなければならない可能性があるという問題があります。

偶然にも、この事故の数日前、米国は世界初のロボタクシー規制案「AV-STEP」を発表した。この案では、ロボタクシーの乗車資格、乗車方法、乗車場所、賠償責任の所在などについて規定されている。

もちろん、人々が最も気にするのは、何か問題が起こった場合に誰がカバーしてくれるかということです。

軽微な物的損害のみで人的傷害のないインシデントについては、AV-STEPはL4プレーヤーに対し、(1)四半期ごとに一般レポートを提出すること、(2)運用中に特定のインシデントやイベントを速やかに報告すること、(3)レポートを更新することを推奨しています。

衝突により重大な経済的損失や人身傷害が発生した場合、または ADS (自動交通管制装置) が交通規則に違反した場合、あるいは安全担当者の数に変更があった場合は、直ちに報告する必要があります。

NHTSA は、事故の損害と結果に基づいて、自動運転事故を明らかな問題重大な明らかな問題に分類します。

明らかに特定されているが「重大」と分類されていない問題については、規制当局は 10 日以内に正式な通知を発行し、必要に応じてL4 テスト操作へのアクセスを停止します

「重大」と判断される事項については、規制通知の時期は固定されておらず、具体的な状況に基づいて決定されます。ただし、必要に応じて、通知の発出後直ちに立ち入り許可の停止措置が実施される場合があります。

しかし、米国の規制案は主に人間を対象としており、対象が自律機能も備えた非人間的な「ロボット」に変更された場合、結論は不透明です。

この事故で負傷者は出なかったものの、ウェイモの能力に疑問が投げかけられます。同じ状況で、たとえ人や動物でなくても、同程度のサイズの物体に遭遇した場合、ウェイモのロボタクシーはそれを回避できるのでしょうか?

さらに、ネット上に拡散されている動画は鮮明さに欠けており、多くの疑問が生じています。騒ぎが収まる前に、ネットユーザーの間ではすでに事故の根本原因について議論が始まっています。

一部のネットユーザーはウェイモのセンサーに疑問を呈し、 LiDARを搭載しているにもかかわらず車がなぜ衝突するのかと困惑していると述べた。

ネットユーザーの中には、調査のために「犯罪現場」まで戻り、スロープが角にあったことを発見した者もいた。

動画内でロボットが後ずさりする様子と合わせて、ネットユーザーたちは、ロボットは坂を上ろうとしたが、毎回道路脇で立ち往生して失敗したのではないかと考えている。

Waymoはロボットを検知したものの、予測スタックはロボットが歩道へ進むと予測していたため、ロボットが突然道路へ後退したことに「驚いた」のです。つまり、問題はセンサーではなく、予測プロセスにありました。

また、一部のネットユーザーは、問題は非生物を検知してそれにぶつかるウェイモのアルゴリズムにあると考えており、ウェイモのコンピューターの「脳回路」をユーモラスに想像している。

どう思いますか?