論文の概要: From Failures to Fixes: LLM-Driven Scenario Repair for Self-Evolving Autonomous Driving
- arxiv url: http://arxiv.org/abs/2505.22067v1
- Date: Wed, 28 May 2025 07:46:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.473185
- Title: From Failures to Fixes: LLM-Driven Scenario Repair for Self-Evolving Autonomous Driving
- Title(参考訳): 障害から修正へ:自己進化型自動運転のためのLCM駆動シナリオ修復
- Authors: Xinyu Xia, Xingjun Ma, Yunfeng Hu, Ting Qu, Hong Chen, Xun Gong,
- Abstract要約: 本研究では,自動走行システムの自己開発を可能にするフレームワークである textbfSERA を提案する。
パフォーマンスログを分析することで、SERAは障害パターンを特定し、構造化バンクから動的にセマンティックに整合したシナリオを検索する。
ベンチマークの実験では、SERAは複数の自律走行ベースラインにわたる重要な指標を一貫して改善し、安全クリティカルな条件下での有効性と一般化性を実証している。
- 参考スコア(独自算出の注目度): 29.36624509719055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ensuring robust and generalizable autonomous driving requires not only broad scenario coverage but also efficient repair of failure cases, particularly those related to challenging and safety-critical scenarios. However, existing scenario generation and selection methods often lack adaptivity and semantic relevance, limiting their impact on performance improvement. In this paper, we propose \textbf{SERA}, an LLM-powered framework that enables autonomous driving systems to self-evolve by repairing failure cases through targeted scenario recommendation. By analyzing performance logs, SERA identifies failure patterns and dynamically retrieves semantically aligned scenarios from a structured bank. An LLM-based reflection mechanism further refines these recommendations to maximize relevance and diversity. The selected scenarios are used for few-shot fine-tuning, enabling targeted adaptation with minimal data. Experiments on the benchmark show that SERA consistently improves key metrics across multiple autonomous driving baselines, demonstrating its effectiveness and generalizability under safety-critical conditions.
- Abstract(参考訳): 堅牢で一般化可能な自動運転を実現するには、広範なシナリオカバレッジだけでなく、障害ケースの効率的な修復、特に挑戦的かつ安全クリティカルなシナリオに関連するものが必要です。
しかし、既存のシナリオ生成と選択方法は、適応性とセマンティックな関連性を欠いていることが多く、パフォーマンス改善への影響を制限している。
本稿では, LLM を利用した自律走行システムである \textbf{SERA} を提案する。
パフォーマンスログを分析することで、SERAは障害パターンを特定し、構造化バンクから動的にセマンティックに整合したシナリオを検索する。
LLMに基づくリフレクション機構は、これらの勧告をさらに洗練し、妥当性と多様性を最大化する。
選択されたシナリオは、最小限のデータによるターゲット適応を可能にする、数ショットの微調整に使用される。
ベンチマークの実験では、SERAは複数の自律走行ベースラインにわたる重要な指標を一貫して改善し、安全クリティカルな条件下での有効性と一般化性を実証している。
関連論文リスト
- AGENTS-LLM: Augmentative GENeration of Challenging Traffic Scenarios with an Agentic LLM Framework [29.10278896946722]
本稿では,自然言語記述を用いた実世界の交通シナリオを拡張するためのLLM-agentベースのフレームワークを提案する。
重要な革新はエージェント設計を使用することで、出力のきめ細かい制御を可能にすることである。
論文 参考訳(メタデータ) (2025-07-18T08:20:16Z) - SEAL: Vision-Language Model-Based Safe End-to-End Cooperative Autonomous Driving with Adaptive Long-Tail Modeling [13.81210267833274]
SEALは、長期シナリオ下での堅牢な協調自動運転のための適応型マルチモーダル学習を備えたビジョンベースのモデルベースフレームワークである。
SEALは、(i)基礎モデルを利用して現実的なロングテール条件を合成するプロンプト駆動のロングテールシナリオ生成と評価パイプライン、(ii)曖昧または破損した特徴を再検討するシナリオを用いてビジュアルストリームを変調するマルチシナリオ適応アダプティブアテンションモジュール、(iii)マルチタスクシナリオを意識したコントラクティブな学習目標、マルチモーダルアライメントを改善し、クロスシナリオ機能セパビリティを促進する。
論文 参考訳(メタデータ) (2025-06-26T06:42:03Z) - MSDA: Combining Pseudo-labeling and Self-Supervision for Unsupervised Domain Adaptation in ASR [59.83547898874152]
本稿では,自己教師付き学習と半教師付き技術を統合する,サンプル効率のよい2段階適応手法を提案する。
MSDAは、ASRモデルの堅牢性と一般化を強化するように設計されている。
本稿では,メタPLがASRタスクに効果的に適用可能であることを示す。
論文 参考訳(メタデータ) (2025-05-30T14:46:05Z) - LADs: Leveraging LLMs for AI-Driven DevOps [3.240228178267042]
LADは、どの条件の下で最適化が機能するかを詳細に分析することで、構成最適化の原則化されたアプローチである。
Retrieval-Augmented Generation、Few-Shot Learning、Chain-of-Thought、Feedback-Based Prompt Chainingを活用することで、LADは正確な構成を生成し、デプロイメント障害から反復的に洗練されたシステム設定を学ぶ。
我々の発見は、パフォーマンス、コスト、スケーラビリティのトレードオフに関する重要な洞察を明らかにし、実践者が異なるデプロイメントシナリオに対して適切な戦略を決定するのに役立つ。
論文 参考訳(メタデータ) (2025-02-28T08:12:08Z) - From Words to Collisions: LLM-Guided Evaluation and Adversarial Generation of Safety-Critical Driving Scenarios [6.681744368557208]
大規模言語モデル(LLM)と構造化シナリオ解析と迅速なエンジニアリングは、安全クリティカルな運転シナリオを生成するために使用される。
2次元シミュレーションフレームワークと複数の事前学習LDMを用いて,本手法の有効性を検証した。
ドメインインフォームドプロンプト技術を備えたLLMは、安全クリティカルな運転シナリオを効果的に評価し、生成することができると結論付けている。
論文 参考訳(メタデータ) (2025-02-04T09:19:13Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Generating Out-Of-Distribution Scenarios Using Language Models [58.47597351184034]
大規模言語モデル(LLM)は自動運転において有望であることを示している。
本稿では,多様なOF-Distribution(OOD)駆動シナリオを生成するためのフレームワークを提案する。
我々は、広範囲なシミュレーションを通じてフレームワークを評価し、新しい"OOD-ness"メトリクスを導入する。
論文 参考訳(メタデータ) (2024-11-25T16:38:17Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Continual Driving Policy Optimization with Closed-Loop Individualized Curricula [2.903150959383393]
閉ループ個別化カリキュラム(CLIC)を特徴とする連続運転ポリシー最適化フレームワークを開発した。
CLICは衝突予測タスクとしてAV評価をフレーム化し、各イテレーションでこれらのシナリオでAV障害が起こる確率を見積もる。
CLICは他のカリキュラムベースのトレーニング戦略を超越し、リスクのあるシナリオの管理を大幅に改善したことを示す。
論文 参考訳(メタデータ) (2023-09-25T15:14:54Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Generating Useful Accident-Prone Driving Scenarios via a Learned Traffic
Prior [135.78858513845233]
STRIVEは、特定のプランナーが衝突のような望ましくない振る舞いを発生させるような、困難なシナリオを自動的に生成する手法である。
シナリオの妥当性を維持するために、キーとなるアイデアは、グラフベースの条件付きVAEという形で、学習した交通運動モデルを活用することである。
その後の最適化は、シナリオの"解決"を見つけるために使用され、与えられたプランナーを改善するのに有効である。
論文 参考訳(メタデータ) (2021-12-09T18:03:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。