論文の概要: Steerable Adversarial Scenario Generation through Test-Time Preference Alignment
- arxiv url: http://arxiv.org/abs/2509.20102v1
- Date: Wed, 24 Sep 2025 13:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.825177
- Title: Steerable Adversarial Scenario Generation through Test-Time Preference Alignment
- Title(参考訳): テスト時間優先アライメントによるステアブル・逆シナリオ生成
- Authors: Tong Nie, Yuewen Mei, Yihong Tang, Junlin He, Jie Sun, Haotian Shi, Wei Ma, Jian Sun,
- Abstract要約: 対立シナリオ生成は、自律運転システムの安全性評価のためのコスト効率の良いアプローチである。
textbfSteerable textbfAdversarial scenario textbfGEnerator (SAGE) という新しいフレームワークを導入する。
SAGEは、逆境とリアリズムの間のトレードオフを、再トレーニングなしできめ細かいテストタイムコントロールを可能にします。
- 参考スコア(独自算出の注目度): 58.37104890690234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial scenario generation is a cost-effective approach for safety assessment of autonomous driving systems. However, existing methods are often constrained to a single, fixed trade-off between competing objectives such as adversariality and realism. This yields behavior-specific models that cannot be steered at inference time, lacking the efficiency and flexibility to generate tailored scenarios for diverse training and testing requirements. In view of this, we reframe the task of adversarial scenario generation as a multi-objective preference alignment problem and introduce a new framework named \textbf{S}teerable \textbf{A}dversarial scenario \textbf{GE}nerator (SAGE). SAGE enables fine-grained test-time control over the trade-off between adversariality and realism without any retraining. We first propose hierarchical group-based preference optimization, a data-efficient offline alignment method that learns to balance competing objectives by decoupling hard feasibility constraints from soft preferences. Instead of training a fixed model, SAGE fine-tunes two experts on opposing preferences and constructs a continuous spectrum of policies at inference time by linearly interpolating their weights. We provide theoretical justification for this framework through the lens of linear mode connectivity. Extensive experiments demonstrate that SAGE not only generates scenarios with a superior balance of adversariality and realism but also enables more effective closed-loop training of driving policies. Project page: https://tongnie.github.io/SAGE/.
- Abstract(参考訳): 対立シナリオ生成は、自律運転システムの安全性評価のためのコスト効率の良いアプローチである。
しかし、既存の手法は、逆境やリアリズムのような競合する目的の間の1つの固定されたトレードオフに制約されることが多い。
これにより、推論時に操縦できない行動特化モデルが得られ、多様なトレーニングとテスト要件のために調整されたシナリオを生成するための効率と柔軟性が欠如している。
そこで本稿では, 逆シナリオ生成のタスクを多目的優先アライメント問題として再編成し, 新たなフレームワークである textbf{S}teerable \textbf{A}dversarial scenario \textbf{GE}nerator (SAGE) を導入する。
SAGEは、逆境とリアリズムの間のトレードオフを、再トレーニングなしできめ細かいテストタイムコントロールを可能にします。
まず,データ効率のよいオフラインアライメント手法である階層型グループベース選好最適化を提案する。
固定モデルをトレーニングする代わりに、SAGEは2人の専門家に対して、反対の嗜好について微調整し、重みを線形に補間することで、推論時にポリシーの連続スペクトルを構築する。
線形モード接続のレンズにより,この枠組みを理論的に正当化する。
大規模な実験では、SAGEは逆境とリアリズムのバランスの優れたシナリオを生成するだけでなく、運転ポリシーのより効果的なクローズループトレーニングを可能にしている。
プロジェクトページ: https://tongnie.github.io/SAGE/。
関連論文リスト
- DRIVE: Dynamic Rule Inference and Verified Evaluation for Constraint-Aware Autonomous Driving [37.24058519921229]
本稿では,動的ルール推論と検証評価のための新しいフレームワークDRIVEを紹介する。
D DRIVEは、ソフト制約違反率0.0%、スムーズな軌道、様々な運転シナリオにおけるより強力な一般化を実現している。
検証された評価は、現実世界のデプロイメントにおけるフレームワークの効率性、説明可能性、堅牢性をさらに示す。
論文 参考訳(メタデータ) (2025-08-06T03:56:06Z) - Conformal Arbitrage: Risk-Controlled Balancing of Competing Objectives in Language Models [5.294604210205507]
Conformal Arbitrageは、データ駆動しきい値を学び、主目的のために最適化されたプライマリモデルとより保守的なGuardianの間を仲介するフレームワークです。
提案手法は,精度において,モデル間のランダムなルーティングに一致したコストで優れた性能を示す。
論文 参考訳(メタデータ) (2025-06-01T08:55:10Z) - From Failures to Fixes: LLM-Driven Scenario Repair for Self-Evolving Autonomous Driving [29.36624509719055]
本研究では,自動走行システムの自己開発を可能にするフレームワークである textbfSERA を提案する。
パフォーマンスログを分析することで、SERAは障害パターンを特定し、構造化バンクから動的にセマンティックに整合したシナリオを検索する。
ベンチマークの実験では、SERAは複数の自律走行ベースラインにわたる重要な指標を一貫して改善し、安全クリティカルな条件下での有効性と一般化性を実証している。
論文 参考訳(メタデータ) (2025-05-28T07:46:19Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - One-Shot Safety Alignment for Large Language Models via Optimal Dualization [64.52223677468861]
本稿では,制約付きアライメントを等価な非制約アライメント問題に還元する双対化の観点を提案する。
我々は、閉形式を持つ滑らかで凸な双対函数を事前に最適化する。
我々の戦略は、モデルベースと嗜好ベースの設定における2つの実用的なアルゴリズムに導かれる。
論文 参考訳(メタデータ) (2024-05-29T22:12:52Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - An Adaptive Fuzzy Reinforcement Learning Cooperative Approach for the
Autonomous Control of Flock Systems [4.961066282705832]
この研究は、群集システムの自律制御に適応的な分散ロバスト性技術を導入している。
比較的柔軟な構造は、様々な目的を同時に狙うオンラインファジィ強化学習スキームに基づいている。
動的障害に直面した場合のレジリエンスに加えて、アルゴリズムはフィードバック信号としてエージェントの位置以上のものを必要としない。
論文 参考訳(メタデータ) (2023-03-17T13:07:35Z) - A Unified Framework for Adversarial Attack and Defense in Constrained
Feature Space [13.096022606256973]
本稿では、与えられたドメイン制約を満たす実行可能な逆例を生成するための統一的なフレームワークを提案する。
我々のフレームワークは、制約された敵攻撃の研究の出発点を形成し、研究が活用できる関連するベースラインとデータセットを提供します。
論文 参考訳(メタデータ) (2021-12-02T12:05:27Z) - Congestion-aware Multi-agent Trajectory Prediction for Collision
Avoidance [110.63037190641414]
渋滞パターンを明示的に学習し、新しい「センス--学習--Reason--予測」フレームワークを考案する。
学習段階を2段階に分解することで、「学生」は「教師」から文脈的手がかりを学習し、衝突のない軌跡を生成する。
実験では,提案モデルが合成データセットにおいて衝突のない軌道予測を生成できることを実証する。
論文 参考訳(メタデータ) (2021-03-26T02:42:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。