論文の概要: Cooperation for Scalable Supervision of Autonomy in Mixed Traffic
- arxiv url: http://arxiv.org/abs/2112.07569v1
- Date: Tue, 14 Dec 2021 17:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 16:12:19.619619
- Title: Cooperation for Scalable Supervision of Autonomy in Mixed Traffic
- Title(参考訳): 混合交通におけるスケーラブルな自律性スーパービジョンの連携
- Authors: Cameron Hickert, Sirui Li, Cathy Wu
- Abstract要約: 安全クリティカルな設定では、1人の人間が常に1台のマシンを監督する必要はないだろうか?
本論文は、この「スケーリング監視」問題を定式化し、自動運転車(AV)が交通に合流する安全クリティカルな状況への適用について検討する。
AVの人的監督者の負担を軽減するための保守的かつ到達可能性に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 3.136861161060885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improvements in autonomy offer the potential for positive outcomes in a
number of domains, yet guaranteeing their safe deployment is difficult. This
work investigates how humans can intelligently supervise agents to achieve some
level of safety even when performance guarantees are elusive. The motivating
research question is: In safety-critical settings, can we avoid the need to
have one human supervise one machine at all times? The paper formalizes this
'scaling supervision' problem, and investigates its application to the
safety-critical context of autonomous vehicles (AVs) merging into traffic. It
proposes a conservative, reachability-based method to reduce the burden on the
AVs' human supervisors, which allows for the establishment of high-confidence
upper bounds on the supervision requirements in this setting. Order statistics
and traffic simulations with deep reinforcement learning show analytically and
numerically that teaming of AVs enables supervision time sublinear in AV
adoption. A key takeaway is that, despite present imperfections of AVs,
supervision becomes more tractable as AVs are deployed en masse. While this
work focuses on AVs, the scalable supervision framework is relevant to a
broader array of autonomous control challenges.
- Abstract(参考訳): 自律性の向上は多くのドメインで肯定的な結果をもたらす可能性があるが、安全なデプロイメントを保証することは難しい。
本研究は,人間がエージェントをインテリジェントに監視し,性能保証が得られなくてもある程度の安全性を達成する方法について検討する。
安全クリティカルな環境では、1人の人間が常に1台のマシンを監督する必要性を回避できますか?
本論文は,この「スケーリング監督」問題を定式化し,交通に融合する自律走行車(avs)の安全性-クリティカルコンテキストへの適用について検討する。
本研究は,avsのヒューマン・スーパーバイザーの負担を軽減するための,保守的で到達性に基づく手法を提案する。
深部強化学習を用いた順序統計と交通シミュレーションにより, AV のチーム化により, AV 導入における監督時間のサブ線形化が可能となった。
重要な点は、現在のAVの不完全性にもかかわらず、AVが大量に展開されるにつれて、監督がより困難になることである。
この作業はavに重点を置いているが、スケーラブルな監視フレームワークは、幅広い自律制御の課題に関連している。
関連論文リスト
- WHALES: A Multi-agent Scheduling Dataset for Enhanced Cooperation in Autonomous Driving [54.365702251769456]
我々は、駆動シーケンス当たり平均8.4エージェントのデータセットを提示する。
自律運転データセットの中で最大のエージェントと視点を提供するだけでなく、WHALESはエージェントの振る舞いを記録する。
エージェントスケジューリングタスクにおいて,エゴエージェントが複数の候補エージェントの1つを選択して協調する実験を行う。
論文 参考訳(メタデータ) (2024-11-20T14:12:34Z) - Generative Diffusion-based Contract Design for Efficient AI Twins Migration in Vehicular Embodied AI Networks [55.15079732226397]
Embodied AIは、サイバースペースと物理空間のギャップを埋める、急速に進歩する分野だ。
VEANETでは、組み込まれたAIツインが車載AIアシスタントとして機能し、自律運転をサポートするさまざまなタスクを実行する。
論文 参考訳(メタデータ) (2024-10-02T02:20:42Z) - Towards Interactive and Learnable Cooperative Driving Automation: a Large Language Model-Driven Decision-Making Framework [79.088116316919]
コネクテッド・オートモービルズ(CAV)は世界中の道路試験を開始したが、複雑なシナリオにおける安全性と効率性はまだ十分ではない。
本稿では,対話型かつ学習可能なLLM駆動協調運転フレームワークCoDrivingLLMを提案する。
論文 参考訳(メタデータ) (2024-09-19T14:36:00Z) - Work-in-Progress: Crash Course: Can (Under Attack) Autonomous Driving Beat Human Drivers? [60.51287814584477]
本稿では,現在のAVの状況を調べることによって,自律運転における本質的なリスクを評価する。
AVの利点と、現実のシナリオにおける潜在的なセキュリティ課題との微妙なバランスを強調した、特定のクレームを開発する。
論文 参考訳(メタデータ) (2024-05-14T09:42:21Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Stackelberg Driver Model for Continual Policy Improvement in
Scenario-Based Closed-Loop Autonomous Driving [5.765939495779461]
安全クリティカルなシナリオを合成するための効率的な手法のクラスとして、敵生成法が登場した。
Stackelberg Driver Model (SDM) を調整し、車両相互作用の階層的な性質を正確に特徴づける。
提案アルゴリズムは,特に高次元シナリオにおいて,いくつかのベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-25T15:47:07Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z) - Synergistic Redundancy: Towards Verifiable Safety for Autonomous
Vehicles [10.277825331268179]
我々は、自律走行車(AV)のような複雑なサイバー物理システムのための安全アーキテクチャとして、シナジスティック冗長性(SR)を提案する。
SRは、システムのミッションと安全タスクを分離することで、特定の障害に対する検証可能な安全保証を提供する。
ミッション層との密接な調整により、システム内の安全クリティカルな障害を容易かつ早期に検出することができる。
論文 参考訳(メタデータ) (2022-09-04T23:52:03Z) - Fast or Accurate? Governing Conflicting Goals in Highly Autonomous
Vehicles [3.3605894204326994]
AVの精度と速度の基本的な工学的トレードオフを理解することは、AVシステムに固有の不確実性とリスクを規制する政策立案者にとって非常に重要である、と我々は主張する。
これにより、効率的な規制の促進、トルト回復の障壁の低減、安全や説明責任といった公共の価値観の適切なバランスを確保することで、製造業者から公共へのパワーバランスをシフトする。
論文 参考訳(メタデータ) (2022-08-03T13:24:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。