論文の概要: The Constant Eye: Benchmarking and Bridging Appearance Robustness in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2602.12563v1
- Date: Fri, 13 Feb 2026 03:22:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.828177
- Title: The Constant Eye: Benchmarking and Bridging Appearance Robustness in Autonomous Driving
- Title(参考訳): 常時視線:自律運転におけるベンチマークとブリッジ外観のロバスト性
- Authors: Jiabao Wang, Hongyu Zhou, Yuanbo Yang, Jiahao Shao, Yiyi Liao,
- Abstract要約: 凍結視覚基盤モデル(DINOv3)を利用したユニバーサル認識インタフェースを提案する。
我々のプラグ・アンド・プレイ・ソリューションは、さらなる微調整を必要とせず、極端に外観が変化しても一貫した性能を維持している。
- 参考スコア(独自算出の注目度): 38.79861047198566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite rapid progress, autonomous driving algorithms remain notoriously fragile under Out-of-Distribution (OOD) conditions. We identify a critical decoupling failure in current research: the lack of distinction between appearance-based shifts, such as weather and lighting, and structural scene changes. This leaves a fundamental question unanswered: Is the planner failing because of complex road geometry, or simply because it is raining? To resolve this, we establish navdream, a high-fidelity robustness benchmark leveraging generative pixel-aligned style transfer. By creating a visual stress test with negligible geometric deviation, we isolate the impact of appearance on driving performance. Our evaluation reveals that existing planning algorithms often show significant degradation under OOD appearance conditions, even when the underlying scene structure remains consistent. To bridge this gap, we propose a universal perception interface leveraging a frozen visual foundation model (DINOv3). By extracting appearance-invariant features as a stable interface for the planner, we achieve exceptional zero-shot generalization across diverse planning paradigms, including regression-based, diffusion-based, and scoring-based models. Our plug-and-play solution maintains consistent performance across extreme appearance shifts without requiring further fine-tuning. The benchmark and code will be made available.
- Abstract(参考訳): 急速な進歩にもかかわらず、自動運転アルゴリズムはアウト・オブ・ディストリビューション(OOD)条件下では脆弱なままである。
現在の研究では、天気や照明などの外見に基づくシフトの区別の欠如、構造的なシーンの変化といった、重要なデカップリングの失敗を特定している。
複雑な道路形状のためにプランナーが失敗したのか、それとも単に雨が降っているからなのか?
これを解決するために,生成画素に整合したスタイル転送を利用した高忠実度頑健度ベンチマークであるnavdreamを確立する。
幾何学的偏差を無視して視覚的ストレステストを作成することにより、外観が運転性能に与える影響を分離する。
評価の結果,既存の計画アルゴリズムは,下層のシーン構造が一定であっても,OODの外観条件下において顕著な劣化を示すことが判明した。
このギャップを埋めるために、凍結した視覚基盤モデル(DINOv3)を利用した普遍的な認識インタフェースを提案する。
プランナーの安定なインタフェースとして外見不変の特徴を抽出することにより、回帰ベース、拡散ベース、スコアベースモデルを含む様々な計画パラダイムにおける例外的なゼロショット一般化を実現する。
我々のプラグ・アンド・プレイ・ソリューションは、さらなる微調整を必要とせず、極端に外観が変化しても一貫した性能を維持している。
ベンチマークとコードは利用可能になる。
関連論文リスト
- Learning Depth from Past Selves: Self-Evolution Contrast for Robust Depth Estimation [42.74561859065153]
SEC-Depthは自己監督型頑健な深度推定タスクのための自己進化型コントラスト学習フレームワークである。
本手法は多様なベースラインモデルにシームレスに統合し,ゼロショット評価におけるロバスト性を大幅に向上させる。
論文 参考訳(メタデータ) (2025-11-19T06:42:40Z) - RoSe: Robust Self-supervised Stereo Matching under Adverse Weather Conditions [58.37558408672509]
本稿では,ロバストな自己監督型環境対応学習と悪天候蒸留という2つの重要なステップからなる,堅牢な自己監督型訓練パラダイムを提案する。
提案手法の有効性と汎用性を実証し,既存の最先端の自己管理手法より優れていることを示す。
論文 参考訳(メタデータ) (2025-09-23T15:41:40Z) - Solving Inverse Problems with FLAIR [68.87167940623318]
本稿では,フローベース生成モデルを逆問題に先立って活用する学習自由変分フレームワークFLAIRを提案する。
標準画像ベンチマークの結果、FLAIRは再現性やサンプルの多様性の観点から、既存の拡散法や流れ法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2025-06-03T09:29:47Z) - Multi-Modality Driven LoRA for Adverse Condition Depth Estimation [61.525312117638116]
逆条件深さ推定のためのMulti-Modality Driven LoRA(MMD-LoRA)を提案する。
Prompt Driven Domain Alignment (PDDA) と Visual-Text Consistent Contrastive Learning (VTCCL) の2つのコアコンポーネントで構成されている。
nuScenesとOxford RobotCarデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-28T14:23:58Z) - Bench2Drive-R: Turning Real World Data into Reactive Closed-Loop Autonomous Driving Benchmark by Generative Model [63.336123527432136]
我々は,リアクティブ閉ループ評価を可能にする生成フレームワークであるBench2Drive-Rを紹介する。
既存の自動運転用ビデオ生成モデルとは異なり、提案された設計はインタラクティブなシミュレーションに適したものである。
我々は、Bench2Drive-Rの生成品質を既存の生成モデルと比較し、最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-12-11T06:35:18Z) - SA-MixNet: Structure-aware Mixup and Invariance Learning for
Scribble-supervised Road Extraction in Remote Sensing Images [85.52629779976137]
複雑化の進んだ画像シーンを作成するために,ある画像から別の画像へ道路領域を貼り付ける構造を意識したミックスアップ方式を提案する。
道路構造を保ちながら接続性を高めるために,識別器に基づく正規化が設計されている。
われわれのフレームワークは、DeepGlobe、Wuhan、およびマサチューセッツのデータセット上で優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-03-03T02:56:43Z) - Regularizing Self-supervised 3D Scene Flows with Surface Awareness and Cyclic Consistency [3.124750429062221]
2つの新たな一貫性損失を導入し、クラスタを拡大し、異なるオブジェクトに分散するのを防ぐ。
提案した損失はモデル独立であり、既存のモデルの性能を大幅に向上させるためにプラグアンドプレイ方式で使用できる。
また,4つの標準センサ一様駆動データセット上で,フレームワークの有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2023-12-12T11:00:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。