論文の概要: Challenger: Affordable Adversarial Driving Video Generation
- arxiv url: http://arxiv.org/abs/2505.15880v1
- Date: Wed, 21 May 2025 17:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.838953
- Title: Challenger: Affordable Adversarial Driving Video Generation
- Title(参考訳): チャレンジャー(動画)
- Authors: Zhiyuan Xu, Bohan Li, Huan-ang Gao, Mingju Gao, Yong Chen, Ming Liu, Chenxu Yan, Hang Zhao, Shuo Feng, Hao Zhao,
- Abstract要約: Challenger(チャレンジャー)は、物理的に可視だがフォトリアリスティックな対向駆動ビデオを生成するフレームワークである。
nuScenesデータセットでテストされているように、Challengeはさまざまなアグレッシブな駆動シナリオを生成する。
- 参考スコア(独自算出の注目度): 36.949064774296076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating photorealistic driving videos has seen significant progress recently, but current methods largely focus on ordinary, non-adversarial scenarios. Meanwhile, efforts to generate adversarial driving scenarios often operate on abstract trajectory or BEV representations, falling short of delivering realistic sensor data that can truly stress-test autonomous driving (AD) systems. In this work, we introduce Challenger, a framework that produces physically plausible yet photorealistic adversarial driving videos. Generating such videos poses a fundamental challenge: it requires jointly optimizing over the space of traffic interactions and high-fidelity sensor observations. Challenger makes this affordable through two techniques: (1) a physics-aware multi-round trajectory refinement process that narrows down candidate adversarial maneuvers, and (2) a tailored trajectory scoring function that encourages realistic yet adversarial behavior while maintaining compatibility with downstream video synthesis. As tested on the nuScenes dataset, Challenger generates a diverse range of aggressive driving scenarios-including cut-ins, sudden lane changes, tailgating, and blind spot intrusions-and renders them into multiview photorealistic videos. Extensive evaluations show that these scenarios significantly increase the collision rate of state-of-the-art end-to-end AD models (UniAD, VAD, SparseDrive, and DiffusionDrive), and importantly, adversarial behaviors discovered for one model often transfer to others.
- Abstract(参考訳): フォトリアリスティック・ドライビング・ビデオの生成は近年顕著な進歩を遂げているが、現在の手法は主に通常の非敵対的なシナリオに焦点を当てている。
一方、敵の運転シナリオを生成する取り組みは、しばしば抽象軌跡またはBEV表現で行われ、真のストレステスト自律運転(AD)システムを実現する現実的なセンサーデータの提供には不足している。
本研究では,物理的に可視であるが,光リアルな対向駆動ビデオを生成するフレームワークであるChallengeを紹介する。
このようなビデオを生成することは根本的な課題であり、交通相互作用の空間と高忠実度センサーの観測を共同で最適化する必要がある。
チャレンジャーは,(1) 逆方向の操作を狭める物理対応多ラウンド軌道修正プロセス,(2) 下流ビデオ合成との整合性を維持しつつ,現実的かつ逆方向の動作を促進する調整された軌道スコアリング機能,の2つの手法により,これを手頃な価格で実現している。
nuScenesデータセットでテストされているように、Challengeはカットイン、突然の車線変更、調整、盲点侵入など、さまざまな攻撃的な運転シナリオを生成し、それらをマルチビューのフォトリアリスティックビデオにレンダリングする。
大規模な評価では、これらのシナリオは最先端のADモデル(UniAD、VAD、SparseDrive、DiffusionDrive)の衝突率を著しく向上させ、重要なことは、あるモデルで発見された敵の振る舞いが、しばしば他のモデルに転送されることである。
関連論文リスト
- Other Vehicle Trajectories Are Also Needed: A Driving World Model Unifies Ego-Other Vehicle Trajectories in Video Latent Space [17.782501276072537]
本稿では,EOT-WMという駆動型世界モデルを提案する。
モデルは、自作の軌跡で見えない運転シーンを予測することもできる。
論文 参考訳(メタデータ) (2025-03-12T10:02:18Z) - Seeing Beyond Views: Multi-View Driving Scene Video Generation with Holistic Attention [61.3281618482513]
高品質なマルチビュー駆動ビデオの合成を目的とした,新しいネットワークであるCogDrivingについて紹介する。
CogDriving は Diffusion Transformer アーキテクチャと holistic-4D attention module を活用し、次元間の同時結合を可能にする。
CogDrivingは、nuScenesバリデーションセットで強力なパフォーマンスを示し、FVDスコア37.8を達成し、リアルなドライビングビデオを生成する能力を強調している。
論文 参考訳(メタデータ) (2024-12-04T18:02:49Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Dynamic Adversarial Attacks on Autonomous Driving Systems [16.657485186920102]
本稿では,自律走行システムのレジリエンスに挑戦する攻撃機構を提案する。
我々は、他の移動車に搭載された画面に対向パッチを動的に表示することにより、自動運転車の意思決定プロセスを操作する。
我々の実験は、現実の自律走行シナリオにおけるこのような動的敵攻撃の実装が最初に成功したことを実証している。
論文 参考訳(メタデータ) (2023-12-10T04:14:56Z) - Multi-Modal Fusion Transformer for End-to-End Autonomous Driving [59.60483620730437]
画像表現とLiDAR表現を注目で統合する,新しいマルチモードフュージョントランスフォーマであるTransFuserを提案する。
本手法は, 衝突を76%低減しつつ, 最先端駆動性能を実現する。
論文 参考訳(メタデータ) (2021-04-19T11:48:13Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。