論文の概要: Toward Safety-First Human-Like Decision Making for Autonomous Vehicles in Time-Varying Traffic Flow
- arxiv url: http://arxiv.org/abs/2506.14502v1
- Date: Tue, 17 Jun 2025 13:28:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.484115
- Title: Toward Safety-First Human-Like Decision Making for Autonomous Vehicles in Time-Varying Traffic Flow
- Title(参考訳): 時変交通流における自動運転車の安全第一の人型意思決定に向けて
- Authors: Xiao Wang, Junru Yu, Jun Huang, Qiong Wu, Ljubo Vacic, Changyin Sun,
- Abstract要約: このフレームワークは、他の道路利用者の意図推論のための空間的注意(S-TA)機構、行動規制のための社会的コンプライアンス推定モジュール、Deep Evolutionary Reinforcement Learning(DERL)モデルを統合する。
SF-HLDMフレームワークは、自律運転AIエージェントが決定パラメータを動的に調整し、安全マージンを維持し、文脈的に適切な運転行動に固執することを可能にする。
- 参考スコア(独自算出の注目度): 19.366456768621365
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent advancements in artificial intelligence technologies have shown great potential in improving transport efficiency and safety, autonomous vehicles(AVs) still face great challenge of driving in time-varying traffic flow, especially in dense and interactive situations. Meanwhile, human have free wills and usually do not make the same decisions even situate in the exactly same scenarios, leading to the data-driven methods suffer from poor migratability and high search cost problems, decreasing the efficiency and effectiveness of the behavior policy. In this research, we propose a safety-first human-like decision-making framework(SF-HLDM) for AVs to drive safely, comfortably, and social compatiblely in effiency. The framework integrates a hierarchical progressive framework, which combines a spatial-temporal attention (S-TA) mechanism for other road users' intention inference, a social compliance estimation module for behavior regulation, and a Deep Evolutionary Reinforcement Learning(DERL) model for expanding the search space efficiently and effectively to make avoidance of falling into the local optimal trap and reduce the risk of overfitting, thus make human-like decisions with interpretability and flexibility. The SF-HLDM framework enables autonomous driving AI agents dynamically adjusts decision parameters to maintain safety margins and adhering to contextually appropriate driving behaviors at the same time.
- Abstract(参考訳): 人工知能技術の最近の進歩は、輸送効率と安全性を向上させる大きな可能性を示しているが、自動運転車(AV)は、特に密集した対話的な状況において、時間変化のある交通の流れで運転するという大きな課題に直面している。
一方、人間は自由意志を持ち、通常、全く同じシナリオでも同じ決定を下さないため、データ駆動型手法は、移動可能性の低下と検索コストの高い問題に悩まされ、行動ポリシーの効率と有効性が低下する。
本研究では, 安全, 快適, 社会的に効率よく運転するための安全第一人型意思決定フレームワーク (SF-HLDM) を提案する。
本フレームワークは、他の道路利用者の意図推論のための空間時間的注意(S-TA)機構と行動規制のための社会コンプライアンス推定モジュールと、探索空間を効率的に効率的に拡張するDeep Evolutionary Reinforcement Learning(DERL)モデルを組み合わせることで、局所最適トラップへの落下を回避し、過度な適合のリスクを低減し、解釈性と柔軟性を備えた人間的な決定を可能にする階層的進行フレームワークを統合する。
SF-HLDMフレームワークは、自律運転AIエージェントが安全マージンを維持するために決定パラメータを動的に調整し、同時に文脈的に適切な運転行動に固執することを可能にする。
関連論文リスト
- Confidence-Regulated Generative Diffusion Models for Reliable AI Agent Migration in Vehicular Metaverses [55.70043755630583]
車両用AIエージェントには、環境認識、意思決定、行動実行能力が与えられている。
本稿では、信頼性の高い車両用AIエージェントマイグレーションフレームワークを提案し、信頼性の高い動的マイグレーションと効率的なリソーススケジューリングを実現する。
我々は,AIエージェントのマイグレーション決定を効率的に生成する信頼性制御型生成拡散モデル(CGDM)を開発した。
論文 参考訳(メタデータ) (2025-05-19T05:04:48Z) - Traffic and Safety Rule Compliance of Humans in Diverse Driving Situations [48.924085579865334]
安全な運転プラクティスを再現する自律システムを開発するためには、人間のデータを分析することが不可欠だ。
本稿では,複数の軌道予測データセットにおける交通・安全規則の適合性の比較評価を行う。
論文 参考訳(メタデータ) (2024-11-04T09:21:00Z) - A Safe and Efficient Self-evolving Algorithm for Decision-making and Control of Autonomous Driving Systems [19.99282698119699]
自己進化型自動運転車は、現実世界の環境における未知のシナリオに対処することが期待されている。
強化学習は 最適な政策を学ぶことで 自己進化できる。
本稿では,ハイブリッドなメカニズム-経験-学習型拡張手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T08:05:03Z) - Enhanced Safety in Autonomous Driving: Integrating Latent State Diffusion Model for End-to-End Navigation [5.928213664340974]
本研究は自動運転の制御最適化問題における安全性問題に対処する。
本稿では,条件付きバリュー・アット・リスクに基づくソフトアクター批判を利用して,ポリシー最適化のための新しいモデルベースアプローチを提案する。
本手法では, 安全探索を誘導する最悪のアクターを導入し, 予測不可能なシナリオにおいても, 安全要件の厳密な遵守を確保する。
論文 参考訳(メタデータ) (2024-07-08T18:32:40Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。