論文の概要: Cooperation for Scalable Supervision of Autonomy in Mixed Traffic
- arxiv url: http://arxiv.org/abs/2112.07569v1
- Date: Tue, 14 Dec 2021 17:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 16:12:19.619619
- Title: Cooperation for Scalable Supervision of Autonomy in Mixed Traffic
- Title(参考訳): 混合交通におけるスケーラブルな自律性スーパービジョンの連携
- Authors: Cameron Hickert, Sirui Li, Cathy Wu
- Abstract要約: 安全クリティカルな設定では、1人の人間が常に1台のマシンを監督する必要はないだろうか?
本論文は、この「スケーリング監視」問題を定式化し、自動運転車(AV)が交通に合流する安全クリティカルな状況への適用について検討する。
AVの人的監督者の負担を軽減するための保守的かつ到達可能性に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 3.136861161060885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Improvements in autonomy offer the potential for positive outcomes in a
number of domains, yet guaranteeing their safe deployment is difficult. This
work investigates how humans can intelligently supervise agents to achieve some
level of safety even when performance guarantees are elusive. The motivating
research question is: In safety-critical settings, can we avoid the need to
have one human supervise one machine at all times? The paper formalizes this
'scaling supervision' problem, and investigates its application to the
safety-critical context of autonomous vehicles (AVs) merging into traffic. It
proposes a conservative, reachability-based method to reduce the burden on the
AVs' human supervisors, which allows for the establishment of high-confidence
upper bounds on the supervision requirements in this setting. Order statistics
and traffic simulations with deep reinforcement learning show analytically and
numerically that teaming of AVs enables supervision time sublinear in AV
adoption. A key takeaway is that, despite present imperfections of AVs,
supervision becomes more tractable as AVs are deployed en masse. While this
work focuses on AVs, the scalable supervision framework is relevant to a
broader array of autonomous control challenges.
- Abstract(参考訳): 自律性の向上は多くのドメインで肯定的な結果をもたらす可能性があるが、安全なデプロイメントを保証することは難しい。
本研究は,人間がエージェントをインテリジェントに監視し,性能保証が得られなくてもある程度の安全性を達成する方法について検討する。
安全クリティカルな環境では、1人の人間が常に1台のマシンを監督する必要性を回避できますか?
本論文は,この「スケーリング監督」問題を定式化し,交通に融合する自律走行車(avs)の安全性-クリティカルコンテキストへの適用について検討する。
本研究は,avsのヒューマン・スーパーバイザーの負担を軽減するための,保守的で到達性に基づく手法を提案する。
深部強化学習を用いた順序統計と交通シミュレーションにより, AV のチーム化により, AV 導入における監督時間のサブ線形化が可能となった。
重要な点は、現在のAVの不完全性にもかかわらず、AVが大量に展開されるにつれて、監督がより困難になることである。
この作業はavに重点を置いているが、スケーラブルな監視フレームワークは、幅広い自律制御の課題に関連している。
関連論文リスト
- Empowering Autonomous Driving with Large Language Models: A Safety
Perspective [86.47444945343013]
本稿では,大規模言語モデル(LLM)の自律運転システムへの統合を提唱する。
アプローチの有効性を実証する2つのケーススタディの結果を報告する。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Classification of Safety Driver Attention During Autonomous Vehicle
Operation [11.33083039877258]
本稿では、車両オペレーターと車両認識システムに対向する赤外線カメラからのデータを統合したデュアルソースアプローチを提案する。
提案システムは,車両運転者の注意度基準を効果的に決定し,警告や自律機能低下などの介入を適切に行う。
論文 参考訳(メタデータ) (2023-10-17T22:04:42Z) - Stackelberg Driver Model for Continual Policy Improvement in
Scenario-Based Closed-Loop Autonomous Driving [5.765939495779461]
安全クリティカルなシナリオを合成するための効率的な手法のクラスとして、敵生成法が登場した。
Stackelberg Driver Model (SDM) を調整し、車両相互作用の階層的な性質を正確に特徴づける。
提案アルゴリズムは,特に高次元シナリオにおいて,いくつかのベースラインと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-25T15:47:07Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - Convergence of Communications, Control, and Machine Learning for Secure
and Autonomous Vehicle Navigation [78.60496411542549]
接続された自動運転車(CAV)は、交通事故におけるヒューマンエラーを低減し、道路効率を向上し、様々なタスクを実行する。これらのメリットを享受するためには、CAVが目標とする目的地へ自律的にナビゲートする必要がある。
本稿では,通信理論,制御理論,機械学習の収束を利用して,効果的なCAVナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2023-07-05T21:38:36Z) - Safety of autonomous vehicles: A survey on Model-based vs. AI-based
approaches [1.370633147306388]
AVの全体制御アーキテクチャを定義するための関連手法と概念について検討する。
このレビュープロセスを通じて、モデルベースの方法とAIベースのアプローチのいずれかを使用する研究を強調することを意図している。
本稿では,安全性検証技術と安全フレームワークの標準化・一般化という,AVの安全性を保証するための手法について論じる。
論文 参考訳(メタデータ) (2023-05-29T08:05:32Z) - Assurance for Autonomy -- JPL's past research, lessons learned, and
future directions [56.32768279109502]
幅広い状況の変動が、事前計画された応答を妨げている場合、自律性が必要である。
ミッション・アシュアランス(Mission Assurance)は、信頼性を提供する上で重要な貢献者であるが、何十年にもわたって宇宙飛行に輝く保証の実践は、自律性に関する経験が比較的少ない。
JPLのソフトウェア保証グループの研究者は、自律性の保証に特化した技術の開発に関与している。
論文 参考訳(メタデータ) (2023-05-16T18:24:12Z) - Synergistic Redundancy: Towards Verifiable Safety for Autonomous
Vehicles [10.277825331268179]
我々は、自律走行車(AV)のような複雑なサイバー物理システムのための安全アーキテクチャとして、シナジスティック冗長性(SR)を提案する。
SRは、システムのミッションと安全タスクを分離することで、特定の障害に対する検証可能な安全保証を提供する。
ミッション層との密接な調整により、システム内の安全クリティカルな障害を容易かつ早期に検出することができる。
論文 参考訳(メタデータ) (2022-09-04T23:52:03Z) - Fast or Accurate? Governing Conflicting Goals in Highly Autonomous
Vehicles [3.3605894204326994]
AVの精度と速度の基本的な工学的トレードオフを理解することは、AVシステムに固有の不確実性とリスクを規制する政策立案者にとって非常に重要である、と我々は主張する。
これにより、効率的な規制の促進、トルト回復の障壁の低減、安全や説明責任といった公共の価値観の適切なバランスを確保することで、製造業者から公共へのパワーバランスをシフトする。
論文 参考訳(メタデータ) (2022-08-03T13:24:25Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。