論文の概要: Fast or Accurate? Governing Conflicting Goals in Highly Autonomous
Vehicles
- arxiv url: http://arxiv.org/abs/2208.02056v1
- Date: Wed, 3 Aug 2022 13:24:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:18:08.410957
- Title: Fast or Accurate? Governing Conflicting Goals in Highly Autonomous
Vehicles
- Title(参考訳): 速さか正確か?
自動運転車の衝突目標を乗り越える
- Authors: A. Feder Cooper and Karen Levy
- Abstract要約: AVの精度と速度の基本的な工学的トレードオフを理解することは、AVシステムに固有の不確実性とリスクを規制する政策立案者にとって非常に重要である、と我々は主張する。
これにより、効率的な規制の促進、トルト回復の障壁の低減、安全や説明責任といった公共の価値観の適切なバランスを確保することで、製造業者から公共へのパワーバランスをシフトする。
- 参考スコア(独自算出の注目度): 3.3605894204326994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The tremendous excitement around the deployment of autonomous vehicles (AVs)
comes from their purported promise. In addition to decreasing accidents, AVs
are projected to usher in a new era of equity in human autonomy by providing
affordable, accessible, and widespread mobility for disabled, elderly, and
low-income populations. However, to realize this promise, it is necessary to
ensure that AVs are safe for deployment, and to contend with the risks AV
technology poses, which threaten to eclipse its benefits. In this Article, we
focus on an aspect of AV engineering currently unexamined in the legal
literature, but with critical implications for safety, accountability,
liability, and power. Specifically, we explain how understanding the
fundamental engineering trade-off between accuracy and speed in AVs is critical
for policymakers to regulate the uncertainty and risk inherent in AV systems.
We discuss how understanding the trade-off will help create tools that will
enable policymakers to assess how the trade-off is being implemented. Such
tools will facilitate opportunities for developing concrete, ex ante AV safety
standards and conclusive mechanisms for ex post determination of accountability
after accidents occur. This will shift the balance of power from manufacturers
to the public by facilitating effective regulation, reducing barriers to tort
recovery, and ensuring that public values like safety and accountability are
appropriately balanced.
- Abstract(参考訳): 自動運転車(avs)の展開をめぐる大きな興奮は、その約束から来ている。
事故の減少に加えて、avは障害者、高齢者、低所得者に対して、手頃で、アクセス可能で、広範囲な移動手段を提供することで、人間の自律性の新たな時代を導くことを計画されている。
しかし、この約束を実現するためには、avがデプロイメントに安全であることを保証することと、そのメリットを脅かすav技術が生み出すリスクに対抗する必要がある。
本条では,現在法文学において未検討のAV工学の側面に着目し,安全性,説明責任,責任,権力に重要な意味を持つ。
具体的には,avシステム固有の不確実性とリスクを規制するためには,avの精度と速度の基本的なエンジニアリングトレードオフを理解することが重要であることを述べる。
トレードオフの理解が、政策立案者によるトレードオフの実施方法の評価を可能にするツールの開発にどのように役立つかについて議論する。
このようなツールは、事故発生後の説明責任決定を後押しする、具体的なAV安全基準や決定的なメカニズムの開発を促進する。
これにより、効率的な規制の促進、トルト回復の障壁の低減、安全や説明責任といった公共の価値観の適切なバランスを確保することで、製造業者から公共へのパワーバランスをシフトする。
関連論文リスト
- Auction-Based Regulation for Artificial Intelligence [28.86995747151915]
本稿では,AIの安全性を規制するオークションベースの規制機構を提案する。
我々は、各参加エージェントの最善の戦略は、所定の最小限の安全閾値よりも安全なモデルを送ることであることを確実に保証する。
その結果,我々の規制オークションは,安全率と参加率を20%,参加率を15%向上させることがわかった。
論文 参考訳(メタデータ) (2024-10-02T17:57:02Z) - Liability and Insurance for Catastrophic Losses: the Nuclear Power Precedent and Lessons for AI [0.0]
本稿では、フロンティアAIモデルの開発者は、クリティカルAI発生(CAIO)による損害に対して、限定的で厳格で排他的な第三者責任を課すべきである、と論じる。
CAIO責任の強制保険は、開発者の判断力、勝者の呪いのダイナミクスを克服し、保険会社の準規制能力を活用するために推奨される。
論文 参考訳(メタデータ) (2024-09-10T17:41:31Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Physical Backdoor Attack can Jeopardize Driving with Vision-Large-Language Models [53.701148276912406]
Vision-Large-Language-models (VLMs) は自動運転において大きな応用可能性を持っている。
BadVLMDriverは、物理的オブジェクトを使用して実際に起動できる自動運転のためのVLMに対する最初のバックドア攻撃である。
BadVLMDriverは、赤い風船を持った歩行者に突如、加速を誘導する攻撃の成功率を92%達成する。
論文 参考訳(メタデータ) (2024-04-19T14:40:38Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Autonomous Vehicles for All? [4.67081468243647]
我々は、自律走行車(AV)を監督する学術機関、産業、政府機関が積極的に行動し、AVがすべてに役立っていることを保証する必要があると論じている。
AVは、道路の輸送能力を高め、運転の混乱を緩和し、安全を改善し、運転できない人のための移動手段を提供し、環境を助ける、かなりの可能性を秘めている。
しかし、公正性、公平性、透明性などの問題を考慮し、社会的責任があるかどうかという懸念も持ち上がっている。
論文 参考訳(メタデータ) (2023-07-03T19:33:07Z) - Watch Out for the Safety-Threatening Actors: Proactively Mitigating
Safety Hazards [5.898210877584262]
本稿では,AVの安全性に影響を及ぼす道路上の各アクターの重要性を推定するために,反実的推論を用いた安全脅威指標(STI)を提案する。
提案手法は, 希少な危険シナリオにおける最先端のAVエージェントの事故発生率を70%以上削減する。
論文 参考訳(メタデータ) (2022-06-02T05:56:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。