論文の概要: Red-Team Multi-Agent Reinforcement Learning for Emergency Braking Scenario
- arxiv url: http://arxiv.org/abs/2507.15587v1
- Date: Mon, 21 Jul 2025 13:08:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.40397
- Title: Red-Team Multi-Agent Reinforcement Learning for Emergency Braking Scenario
- Title(参考訳): 緊急ブレーキシナリオのためのレッドチームマルチエージェント強化学習
- Authors: Yinsong Chen, Kaifeng Wang, Xiaoqiang Meng, Xueyuan Li, Zirui Li, Xin Gao,
- Abstract要約: 干渉能力を持つ背景車両をレッドチームエージェントとして扱うレッドチームマルチエージェント強化学習フレームワークを提案する。
このフレームワークはConstraint Graph Representation Markov Decision Processを使用しており、自動運転車を継続的に破壊しながら、レッドチーム車両が安全規則に従っていることを保証する。
実験の結果,提案手法はAVの意思決定の安全性に大きく影響し,様々なコーナーケースを発生させることがわかった。
- 参考スコア(独自算出の注目度): 10.732297296923784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current research on decision-making in safety-critical scenarios often relies on inefficient data-driven scenario generation or specific modeling approaches, which fail to capture corner cases in real-world contexts. To address this issue, we propose a Red-Team Multi-Agent Reinforcement Learning framework, where background vehicles with interference capabilities are treated as red-team agents. Through active interference and exploration, red-team vehicles can uncover corner cases outside the data distribution. The framework uses a Constraint Graph Representation Markov Decision Process, ensuring that red-team vehicles comply with safety rules while continuously disrupting the autonomous vehicles (AVs). A policy threat zone model is constructed to quantify the threat posed by red-team vehicles to AVs, inducing more extreme actions to increase the danger level of the scenario. Experimental results show that the proposed framework significantly impacts AVs decision-making safety and generates various corner cases. This method also offers a novel direction for research in safety-critical scenarios.
- Abstract(参考訳): 安全クリティカルシナリオにおける意思決定に関する現在の研究は、しばしば非効率なデータ駆動シナリオ生成や特定のモデリングアプローチに依存している。
この問題に対処するために、干渉能力を持つ背景車両をレッドチームエージェントとして扱う、レッドチームマルチエージェント強化学習フレームワークを提案する。
アクティブな干渉と探索によって、レッドチーム車両はデータ配信の外側のコーナーケースを発見できる。
このフレームワークはConstraint Graph Representation Markov Decision Processを使用しており、自動運転車(AV)を継続的に破壊しながら、レッドチーム車両が安全規則に従っていることを保証する。
政策脅威ゾーンモデルは、レッドチーム車両からAVへの脅威を定量化するために構築され、シナリオの危険レベルを高めるためにより極端な行動を引き起こす。
実験の結果,提案手法はAVの意思決定の安全性に大きく影響し,様々なコーナーケースを発生させることがわかった。
この手法はまた、安全クリティカルなシナリオの研究に新しい方向性を提供する。
関連論文リスト
- SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - Black-Box Adversarial Attack on Vision Language Models for Autonomous Driving [65.61999354218628]
我々は、自律運転システムにおいて、視覚言語モデル(VLM)をターゲットとしたブラックボックス敵攻撃を設計する第一歩を踏み出す。
セマンティクスの生成と注入による低レベル推論の分解を目標とするカスケーディング・アディバーショナル・ディスラプション(CAD)を提案する。
本稿では,高レベルリスクシナリオの理解と構築に代理VLMを活用することで,動的適応に対処するリスクシーンインジェクションを提案する。
論文 参考訳(メタデータ) (2025-01-23T11:10:02Z) - CRASH: Challenging Reinforcement-Learning Based Adversarial Scenarios For Safety Hardening [16.305837225117607]
本稿では, CRASH - Challenging Reinforcement-learning based Adversarial scenarios for Safety Hardeningを紹介する。
第1のCRASHは、Ego車両との衝突を自動的に誘導するために、AVシミュレータ内のNon Player Character(NPC)エージェントを制御することができる。
我々はまた、敵エージェントに対する改善シナリオをシミュレートすることで、運動プランナーを反復的に洗練する安全硬化という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-26T00:00:27Z) - A novel framework for adaptive stress testing of autonomous vehicles in
highways [3.2112502548606825]
高速道路交通のシナリオにおいて,安全上の懸念を生じさせるようなコーナーケースを探索する新しい枠組みを提案する。
衝突確率推定に基づいて衝突シナリオを識別する際のASTを導出するDRLの新しい報奨関数を開発した。
提案するフレームワークは,より現実的なトラフィックシナリオの作成を可能にする,新たな駆動モデルとさらに統合されている。
論文 参考訳(メタデータ) (2024-02-19T04:02:40Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Safeguarded Progress in Reinforcement Learning: Safe Bayesian
Exploration for Control Policy Synthesis [63.532413807686524]
本稿では、強化学習(RL)におけるトレーニング中の安全維持の問題に対処する。
探索中の効率的な進捗と安全性のトレードオフを扱う新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-12-18T16:09:43Z) - Generating and Explaining Corner Cases Using Learnt Probabilistic Lane
Graphs [5.309950889075669]
本稿では,車両が走行する車線の位置と方向の有限セットを記述するために,確率的レーングラフ(PLG)を導入する。
PLGの構造は、歴史的交通データから直接学習される。
我々は、このポリシーを変更するために強化学習技術を使用し、現実的で説明可能なコーナーケースシナリオを生成する。
論文 参考訳(メタデータ) (2023-08-25T20:17:49Z) - A Counterfactual Safety Margin Perspective on the Scoring of Autonomous
Vehicles' Riskiness [52.27309191283943]
本稿では,異なるAVの行動のリスクを評価するためのデータ駆動型フレームワークを提案する。
本稿では,衝突を引き起こす可能性のある名目行動から最小限の偏差を示す,対実的安全マージンの概念を提案する。
論文 参考訳(メタデータ) (2023-08-02T09:48:08Z) - RCP-RF: A Comprehensive Road-car-pedestrian Risk Management Framework
based on Driving Risk Potential Field [1.625213292350038]
本研究では,コネクテッド・アンド・オートマチック・ビークル(CAV)環境下での電位場理論に基づく総合運転リスク管理フレームワークRCP-RFを提案する。
既存のアルゴリズムと異なり,エゴ車と障害物車と歩行者係数の移動傾向は,提案手法において正当に考慮されている。
実世界のデータセットNGSIMおよび実AVプラットフォーム上での最先端手法に対する提案手法の優位性を検証する実証的研究を行った。
論文 参考訳(メタデータ) (2023-05-04T01:54:37Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z) - Corner Case Generation and Analysis for Safety Assessment of Autonomous
Vehicles [3.673699859949693]
意思決定システムのための一貫した枠組みが提案されている。
背景車両の挙動を学習するために, 深部強化学習技術を適用した。
学習されたポリシーでは、BVはより積極的にCAVと対話し、より多くのコーナーケースをもたらす。
論文 参考訳(メタデータ) (2021-02-06T02:48:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。