論文の概要: Enhancing Autonomous Vehicle Training with Language Model Integration and Critical Scenario Generation
- arxiv url: http://arxiv.org/abs/2404.08570v1
- Date: Fri, 12 Apr 2024 16:13:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 14:27:45.335803
- Title: Enhancing Autonomous Vehicle Training with Language Model Integration and Critical Scenario Generation
- Title(参考訳): 言語モデル統合と臨界シナリオ生成による自律走行訓練の強化
- Authors: Hanlin Tian, Kethan Reddy, Yuxiang Feng, Mohammed Quddus, Yiannis Demiris, Panagiotis Angeloudis,
- Abstract要約: CRITICALは、自動運転車(AV)のトレーニングとテストのための新しいクローズドループフレームワークである。
このフレームワークは、現実世界のトラフィックダイナミクス、運転行動分析、安全性対策、オプションのLarge Language Model (LLM)コンポーネントを統合することで、これを実現する。
- 参考スコア(独自算出の注目度): 32.02261963851354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces CRITICAL, a novel closed-loop framework for autonomous vehicle (AV) training and testing. CRITICAL stands out for its ability to generate diverse scenarios, focusing on critical driving situations that target specific learning and performance gaps identified in the Reinforcement Learning (RL) agent. The framework achieves this by integrating real-world traffic dynamics, driving behavior analysis, surrogate safety measures, and an optional Large Language Model (LLM) component. It is proven that the establishment of a closed feedback loop between the data generation pipeline and the training process can enhance the learning rate during training, elevate overall system performance, and augment safety resilience. Our evaluations, conducted using the Proximal Policy Optimization (PPO) and the HighwayEnv simulation environment, demonstrate noticeable performance improvements with the integration of critical case generation and LLM analysis, indicating CRITICAL's potential to improve the robustness of AV systems and streamline the generation of critical scenarios. This ultimately serves to hasten the development of AV agents, expand the general scope of RL training, and ameliorate validation efforts for AV safety.
- Abstract(参考訳): 本稿では、自動運転車(AV)のトレーニングとテストのための新しいクローズドループフレームワークであるCRITICALを紹介する。
CRITICALは、Reinforcement Learning (RL)エージェントで特定された特定の学習とパフォーマンスギャップをターゲットとした、重要な運転状況に焦点を当てた、多様なシナリオを生成する能力を強調している。
このフレームワークは、現実世界のトラフィックダイナミクス、運転行動分析、安全性対策、オプションのLarge Language Model (LLM)コンポーネントを統合することで、これを実現する。
データ生成パイプラインとトレーニングプロセスの間に閉じたフィードバックループを確立することで、トレーニング中の学習率を高め、システムパフォーマンスを向上し、安全性を高めることができることが実証された。
The Proximal Policy Optimization (PPO) and the HighwayEnv Simulation environment, showed a noticeable performance improve with the integration of critical case generation and LLM analysis, showed CRITICAL's potential to improve the robustness of AV systems and streamline the generation of critical scenarios。
これは最終的に、AVエージェントの開発を加速し、RLトレーニングの一般範囲を広げ、AV安全性の検証作業を改善するのに役立ちます。
関連論文リスト
- Deciphering Cross-Modal Alignment in Large Vision-Language Models with Modality Integration Rate [118.37653302885607]
本稿では,LVLM(Large Vision Language Models)のマルチモーダル事前学習品質を示すために,MIR(Modality Integration Rate)を提案する。
MIRは、トレーニングデータ選択、トレーニング戦略スケジュール、モデルアーキテクチャ設計に重点を置いて、トレーニング前の結果を改善する。
論文 参考訳(メタデータ) (2024-10-09T17:59:04Z) - Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models [94.39278422567955]
人間の嗜好を微調整した大型言語モデル(LLM)は、その能力向上に成功している。
しかし、微調整中のLLMの安全性確保は依然として重要な懸念事項である。
本稿では,BFPO(Bi-Factorial Preference Optimization)と呼ばれる教師あり学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-27T17:31:21Z) - Robust Deep Reinforcement Learning Through Adversarial Attacks and
Training : A Survey [8.463282079069362]
Deep Reinforcement Learning (DRL)は、さまざまな複雑な環境で自律エージェントを訓練するためのアプローチである。
微妙な条件の変化の影響を受けながらも、現実のアプリケーションにおける信頼性への懸念が高まっている。
DRLの未知の変化に対するロバスト性を改善する方法として, 対人訓練がある。
論文 参考訳(メタデータ) (2024-03-01T10:16:46Z) - Adaptive Testing Environment Generation for Connected and Automated
Vehicles with Dense Reinforcement Learning [7.6589102528398065]
複数のサロゲートモデルを組み込んだアダプティブテスト環境を構築する。
そこで本研究では,高効率な高密度強化学習手法を提案し,新しい適応政策を考案する。
論文 参考訳(メタデータ) (2024-02-29T15:42:33Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Continual Driving Policy Optimization with Closed-Loop Individualized Curricula [2.903150959383393]
閉ループ個別化カリキュラム(CLIC)を特徴とする連続運転ポリシー最適化フレームワークを開発した。
CLICは衝突予測タスクとしてAV評価をフレーム化し、各イテレーションでこれらのシナリオでAV障害が起こる確率を見積もる。
CLICは他のカリキュラムベースのトレーニング戦略を超越し、リスクのあるシナリオの管理を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2023-09-25T15:14:54Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Learning from Demonstrations of Critical Driving Behaviours Using
Driver's Risk Field [4.272601420525791]
模倣学習(IL)は、自動運転(AV)計画モジュールのコアとして産業で広く利用されている。
これまでのIL研究は、安全クリティカルなシナリオにおけるサンプルの非効率性と低い一般化を示しており、テストされることはめったにない。
本稿では,スプライン係数のパラメータ化とオフライン専門家クエリを用いて,安全性とトレーニング効率を向上させるためのILモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:07:35Z) - Benchmarking Safe Deep Reinforcement Learning in Aquatic Navigation [78.17108227614928]
本研究では,水文ナビゲーションに着目した安全強化学習のためのベンチマーク環境を提案する。
価値に基づく政策段階の深層強化学習(DRL)について考察する。
また,学習したモデルの振る舞いを所望の特性の集合上で検証する検証戦略を提案する。
論文 参考訳(メタデータ) (2021-12-16T16:53:56Z) - UMBRELLA: Uncertainty-Aware Model-Based Offline Reinforcement Learning
Leveraging Planning [1.1339580074756188]
オフライン強化学習(RL)は、オフラインデータから意思決定を学ぶためのフレームワークを提供する。
自動運転車(SDV)は、おそらく準最適データセットの振る舞いよりも優れるポリシーを学ぶ。
これはモデルベースのオフラインRLアプローチの使用を動機付け、プランニングを活用する。
論文 参考訳(メタデータ) (2021-11-22T10:37:52Z) - Transferable Deep Reinforcement Learning Framework for Autonomous
Vehicles with Joint Radar-Data Communications [69.24726496448713]
本稿では,AVの最適決定を支援するために,マルコフ決定プロセス(MDP)に基づくインテリジェントな最適化フレームワークを提案する。
そこで我々は,近年の深層強化学習技術を活用した効果的な学習アルゴリズムを開発し,AVの最適方針を見出す。
提案手法は,従来の深部強化学習手法と比較して,AVによる障害物ミス検出確率を最大67%削減することを示す。
論文 参考訳(メタデータ) (2021-05-28T08:45:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。