論文の概要: Risk-Aware Human-in-the-Loop Framework with Adaptive Intrusion Response for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2601.11781v1
- Date: Fri, 16 Jan 2026 21:08:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.320992
- Title: Risk-Aware Human-in-the-Loop Framework with Adaptive Intrusion Response for Autonomous Vehicles
- Title(参考訳): 自律走行車に対する適応的侵入応答を考慮したリスク対応型ヒューマン・イン・ザ・ループ・フレームワーク
- Authors: Dawood Wasif, Terrence J. Moore, Seunghyun Yoon, Hyuk Lim, Dan Dongseong Kim, Frederica F. Nelson, Jin-Hee Cho,
- Abstract要約: 自律走行車のためのリスク認識型ヒューマン・イン・ザ・ループ・フレームワークであるRAILを提案する。
RAILは、重み付きノイズORを介して3つのキューを侵入リスクスコア(IRS)に融合させる。
MetaDriveでは、テストリターン(TR)が360.65、テスト成功率(TSR)が0.85、テスト安全違反(TSV)が0.75、外乱率(DR)が0.0027である。
- 参考スコア(独自算出の注目度): 9.818695109452861
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous vehicles must remain safe and effective when encountering rare long-tailed scenarios or cyber-physical intrusions during driving. We present RAIL, a risk-aware human-in-the-loop framework that turns heterogeneous runtime signals into calibrated control adaptations and focused learning. RAIL fuses three cues (curvature actuation integrity, time-to-collision proximity, and observation-shift consistency) into an Intrusion Risk Score (IRS) via a weighted Noisy-OR. When IRS exceeds a threshold, actions are blended with a cue-specific shield using a learned authority, while human override remains available; when risk is low, the nominal policy executes. A contextual bandit arbitrates among shields based on the cue vector, improving mitigation choices online. RAIL couples Soft Actor-Critic (SAC) with risk-prioritized replay and dual rewards so that takeovers and near misses steer learning while nominal behavior remains covered. On MetaDrive, RAIL achieves a Test Return (TR) of 360.65, a Test Success Rate (TSR) of 0.85, a Test Safety Violation (TSV) of 0.75, and a Disturbance Rate (DR) of 0.0027, while logging only 29.07 training safety violations, outperforming RL, safe RL, offline/imitation learning, and prior HITL baselines. Under Controller Area Network (CAN) injection and LiDAR spoofing attacks, it improves Success Rate (SR) to 0.68 and 0.80, lowers the Disengagement Rate under Attack (DRA) to 0.37 and 0.03, and reduces the Attack Success Rate (ASR) to 0.34 and 0.11. In CARLA, RAIL attains a TR of 1609.70 and TSR of 0.41 with only 8000 steps.
- Abstract(参考訳): 自動運転車は、運転中に稀な長い尾のシナリオやサイバー物理的侵入に遭遇した場合、安全で効果的でなければならない。
我々は、不均一なランタイム信号を校正制御適応と集中学習に変換するリスク認識型ヒューマン・イン・ザ・ループ・フレームワークであるRAILを提案する。
RAILは3つのキュー(曲率運動整合性、時間対衝突近接性、観測シフト整合性)を重み付きノイズORを介して侵入リスクスコア(IRS)に融合させる。
IRSがしきい値を超えると、学習された権威を使ってキュー固有のシールドとアクションが混ざり合わされ、人間のオーバーライドは引き続き利用可能であり、リスクが低い場合には、名目上のポリシーが実行される。
文脈的バンディットはキューベクトルに基づいてシールド間の仲裁を行い、オンラインでの緩和選択を改善する。
RAILはSAC(Soft Actor-Critic)とリスク優先のリプレイと双対報酬を結合し、テイクオーバーとほぼミスは、名目上の振る舞いをカバーしながら、ステアラーニングを成功させる。
MetaDrive上では、RAILは360.65のテストリターン(TR)、テスト成功率(TSR)が0.85、テスト安全違反(TSV)が0.75、インシデントレート(DR)が0.0027、トレーニング安全違反が29.07、RL、安全なRL、オフライン/アニメーション学習、以前のHITLベースラインを上回っている。
コントローラエリアネットワーク(CAN)のインジェクションとLiDARのスプーフィング攻撃の下では、成功率(SR)を0.68と0.80に改善し、アタック(DRA)下の拡張率(DRA)を0.37と0.03に下げ、アタック成功率(ASR)を0.34と0.11に下げる。
CARLAでは、RAILのTRは1609.70で、TSRは0.41で8000歩しかない。
関連論文リスト
- Sparse Threats, Focused Defense: Criticality-Aware Robust Reinforcement Learning for Safe Autonomous Driving [11.62520853262219]
本稿では、自律運転におけるスパースかつ安全クリティカルなリスクに対処するために、臨界対応ロバストRL(CARRL)を導入する。
CARRLは2つの相互作用成分からなる: リスク露光敵 (REA) とリスクターゲット型ロバストエージェント (RTRA) である。
提案手法は,最先端のベースライン法と比較して,全症例で少なくとも22.66%の衝突率を減少させることを示す。
論文 参考訳(メタデータ) (2026-01-05T05:20:16Z) - Ethics-Aware Safe Reinforcement Learning for Rare-Event Risk Control in Interactive Urban Driving [1.2891210250935148]
倫理に配慮したコスト信号で標準駆動目標を増強する階層型セーフ強化学習フレームワークを提案する。
衝突確率と有害度を組み合わせた複合的倫理的リスクコストを用いて安全なRLエージェントを訓練し、高レベルな運動目標を生成する。
動的でリスクに敏感な優先順位付けエクスペリエンスメカニズムは、まれだがクリティカルでリスクの高いイベントからの学習を増幅する。
論文 参考訳(メタデータ) (2025-08-19T14:24:02Z) - AlphaSteer: Learning Refusal Steering with Principled Null-Space Constraint [49.641959856967276]
提案手法はAlphaSteerと呼ばれる,理論的に基礎的かつ実験的に有効なアクティベーションステアリング法である。
ユーティリティ保存のために、Null-space制約を使って、良性データのステアリングのためのほぼゼロベクトルを構築することを学ぶ。
複数のjailbreak攻撃とユーティリティベンチマークの実験は、AlphaSteerの有効性を示している。
論文 参考訳(メタデータ) (2025-06-08T07:03:28Z) - AI-Driven IRM: Transforming insider risk management with adaptive scoring and LLM-based threat detection [0.31457219084519]
インサイダーの脅威は、組織のセキュリティに重大な課題をもたらします。
IRMシステムは行動分析、動的リスクスコアリング、リアルタイムポリシー適用を統合している。
システムは偽陽性を59%減少させ、真の正検出率を30%向上させる。
論文 参考訳(メタデータ) (2025-05-01T18:41:00Z) - TRC: Trust Region Conditional Value at Risk for Safe Reinforcement
Learning [16.176812250762666]
TRCと呼ばれるCVaR制約を持つ信頼領域ベースの安全なRL法を提案する。
まずCVaR上の上界を導出し、その後、信頼領域における微分可能な形で上界を近似する。
他の安全なRL法と比較して、全ての実験で制約を満たす一方、性能は1.93倍向上する。
論文 参考訳(メタデータ) (2023-12-01T04:40:47Z) - Is Risk-Sensitive Reinforcement Learning Properly Resolved? [54.00107408956307]
本稿では,RSRL問題に対するポリシー改善のための新しいアルゴリズムであるトラジェクトリQ-Learning(TQL)を提案する。
新たな学習アーキテクチャに基づいて,さまざまなリスク対応政策を学習するための,さまざまなリスク対策の汎用的かつ実践的な実装を自由に導入できる。
論文 参考訳(メタデータ) (2023-07-02T11:47:21Z) - Safe Deployment for Counterfactual Learning to Rank with Exposure-Based
Risk Minimization [63.93275508300137]
本稿では,安全な配置を理論的に保証する新たなリスク認識型対実学習ランク法を提案する。
提案手法の有効性を実験的に検証し,データが少ない場合の動作不良の早期回避に有効であることを示す。
論文 参考訳(メタデータ) (2023-04-26T15:54:23Z) - A Multiplicative Value Function for Safe and Efficient Reinforcement
Learning [131.96501469927733]
本稿では,安全評論家と報酬評論家からなる新しい乗法値関数を持つモデルフリーRLアルゴリズムを提案する。
安全評論家は、制約違反の確率を予測し、制限のないリターンのみを見積もる報酬批評家を割引する。
安全制約を付加した古典的RLベンチマークや、画像を用いたロボットナビゲーションタスク、生のライダースキャンを観察する4つの環境において、本手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-07T18:29:15Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Provably Efficient Risk-Sensitive Reinforcement Learning: Iterated CVaR
and Worst Path [40.4378338001229]
本稿では,各段階における報酬対ゴーのテールを最大化することを目的とした,反復型CVaR RL(Iterated CVaR RL)という,新たなエピソード型リスク感応型強化学習(RL)問題について検討する。
この定式化は、意思決定プロセスを通して強いリスク回避を要求する現実世界のタスクに適用できる。
論文 参考訳(メタデータ) (2022-06-06T15:24:06Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。