論文の概要: Unsafe At Any Level: NHTSA's levels of automation are a liability for
autonomous vehicle design and regulation
- arxiv url: http://arxiv.org/abs/2003.00326v1
- Date: Sat, 29 Feb 2020 18:22:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 05:37:11.417902
- Title: Unsafe At Any Level: NHTSA's levels of automation are a liability for
autonomous vehicle design and regulation
- Title(参考訳): Unsafe At Any Level:NHTSAの自動化レベルは、自動運転車の設計と規制の責任である
- Authors: Marc Canellas and Rachel Haga
- Abstract要約: 2018年3月23日、カリフォルニア州マウンテンビューのハイウェイバリアにTesla Model Xが衝突し、38歳のAppleエンジニアWalter Huangが亡くなった。
Teslaは事故の責任を直ちに否定した。
これはTeslaとUberの標準的な対応で、これまでの6件の致命的な事故に関与した自動車両のメーカーだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Walter Huang, a 38-year-old Apple Inc. engineer, died on March 23, 2018,
after his Tesla Model X crashed into a highway barrier in Mountain View,
California. Tesla immediately disavowed responsibility for the accident. "The
fundamental premise of both moral and legal liability is a broken promise, and
there was none here: [Mr. Huang] was well aware that the Autopilot was not
perfect [and the] only way for this accident to have occurred is if Mr. Huang
was not paying attention to the road, despite the car providing multiple
warnings to do so." This is the standard response from Tesla and Uber, the
manufacturers of the automated vehicles involved in the six fatal accidents to
date: the automated vehicle isn't perfect, the driver knew it wasn't perfect,
and if only the driver had been paying attention and heeded the vehicle's
warnings, the accident would never have occurred.
However, as researchers focused on human-automation interaction in aviation
and military operations, we cannot help but wonder if there really are no
broken promises and no legal liabilities. Science has a critical role in
determining legal liability, and courts appropriately rely on scientists and
engineers to determine whether an accident, or harm, was foreseeable.
Specifically, a designer could be found liable if, at the time of the accident,
scientists knew there was a systematic relationship between the accident and
the designer's untaken precaution.
Nearly 70 years of research provides an undeniable answer: It is
insufficient, inappropriate, and dangerous to automate everything you can and
leave the rest to the human. There is a systematic relationship between the
design of automated vehicles and the types of accidents that are occurring now
and will inevitably continue to occur in the future. These accidents were not
unforeseeable and the drivers were not exclusively to blame.
- Abstract(参考訳): 米アップルのエンジニア、ウォルター・ファン氏は2018年3月23日、テスラ・モデルxがカリフォルニア州マウンテンビューの高速道路の障壁に衝突して死亡した。
Teslaは事故の責任を直ちに否定した。
「道徳的・法的責任の根本的前提は破約であり、ここにはない。[黄氏]はオートパイロットが完璧ではないことをよく知っていたが、この事故の唯一の方法は、黄氏が複数の警告を出しているにもかかわらず道路に注意を払っていない場合である。」
自動運転車は完璧ではないし、ドライバーは完璧ではないと知っていて、もしドライバーだけが注意を払って、車の警告に注意を払っていれば、事故は起こらなかっただろう。
しかし、航空や軍事活動における人間の自動操作に焦点が当てられているため、本当に壊れた約束も法的責任もないのか疑問に思う。
科学は法的責任を決定する上で重要な役割を持ち、裁判所は事故や危害が予見可能かどうかを科学者や技術者に適切に頼っている。
特に、事故当時、科学者が事故と設計者の無防備な注意の間に系統的な関係があることを知っていた場合、設計者が責任を負う可能性がある。
70年近くに及ぶ研究の結果、否定できない答えが得られている。 できることをすべて自動化し、残りを人間に任せるのは不十分で、不適切で、危険です。
自動運転車の設計と現在発生している事故の種類には系統的な関係があり、将来的には必然的に発生するだろう。
これらの事故は予想外であり、運転士は責任を負わなかった。
関連論文リスト
- Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - A Note on Tesla's Revised Safety Report Crash Rates [0.0]
2018年6月から2022年12月までの間に、TeslaはTesla車両の衝突事故の平均マイルを引用して四半期の安全レポートを発表した。
2021年3月以前、Teslaは事故率を1つに分類し、レベル2の自動走行システム「オートパイロット」、オートパイロットなし、自動緊急ブレーキなどアクティブな安全機能を備えた「オートパイロット」、アクティブな安全機能を備えた「オートパイロット」に分類した。
本項では、変更について記述し、相違の可能性について解説する。
論文 参考訳(メタデータ) (2023-11-10T17:07:37Z) - Infrastructure-based End-to-End Learning and Prevention of Driver
Failure [68.0478623315416]
フェールネットは、規模が拡大したミニ都市において、名目上と無謀なドライバーの両方の軌道上で、エンドツーエンドでトレーニングされた、繰り返しニューラルネットワークである。
制御障害、上流での認識エラー、ドライバーのスピードを正確に識別し、名目運転と区別することができる。
速度や周波数ベースの予測器と比較すると、FailureNetのリカレントニューラルネットワーク構造は予測能力を向上し、ハードウェアにデプロイすると84%以上の精度が得られる。
論文 参考訳(メタデータ) (2023-03-21T22:55:51Z) - Modelling and Detection of Driver's Fatigue using Ontology [60.090278944561184]
道路事故は世界8大死因である。
様々な要因がドライバーの疲労の原因となっている。
ドライバの疲労検出に関するオントロジー知識とルールをインテリジェントシステムに統合する必要がある。
論文 参考訳(メタデータ) (2022-08-31T08:42:28Z) - Detection of Distracted Driver using Convolution Neural Network [7.37092447804202]
インドは道路事故で死者の11%を占めている。
事故の78%はドライバーが担当している。
私たちは、異なるドライバーの気晴らしを分類するために、非常に効率的なMLモデルを構築することに重点を置きます。
論文 参考訳(メタデータ) (2022-04-07T11:41:19Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Self-Driving Cars and Driver Alertness [16.00431760297241]
自動運転車を制御している間の注意力の低下は、予測不能な状況下でドライバーが介入する能力を妨げかねない。
研究者、ドライバー、業界、政策立案者など、さまざまな利害関係者に推奨します。
論文 参考訳(メタデータ) (2021-07-20T23:55:44Z) - Ethical Decision Making During Automated Vehicle Crashes [0.0]
自動走行車は、すべてのセンサー、車両制御部品、アルゴリズムが完全に機能していても、時々クラッシュすると予想されている。
本研究は, 自動走行車両の衝突事故を調査し, 結論を下す。(1) 自動走行車両がほぼ確実にクラッシュし, (2) 特定の事故に先立って自動走行車両の判断が道徳的要素を持ち, (3) ソフトウェアに複雑な人間の道徳を効果的に符号化する方法が存在しない。
論文 参考訳(メタデータ) (2020-10-30T14:58:17Z) - Machine Ethics and Automated Vehicles [0.0]
完全自動化された車両は、人間のドライバーの監視なしにこのリスクを割り当てる方法を継続的に決めなければならない。
自動走行車における道徳的行動の概念を導入し、予想される批判に対する反応を通じてこの分野の研究の必要性を論じ、機械的倫理学や道徳的モデリング研究の応用について論じる。
論文 参考訳(メタデータ) (2020-10-29T15:14:47Z) - Interpretable Safety Validation for Autonomous Vehicles [44.44006029119672]
この研究は、自律システムの解釈可能な障害を見つけるためのアプローチを説明する。
これらの失敗は、人間によって理解できる信号時相論理式によって記述される。
論文 参考訳(メタデータ) (2020-04-14T21:11:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。