論文の概要: RoSe: Robust Self-supervised Stereo Matching under Adverse Weather Conditions
- arxiv url: http://arxiv.org/abs/2509.19165v1
- Date: Tue, 23 Sep 2025 15:41:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.93245
- Title: RoSe: Robust Self-supervised Stereo Matching under Adverse Weather Conditions
- Title(参考訳): RoSe: 逆気象条件下でのロバストな自己監督ステレオマッチング
- Authors: Yun Wang, Junjie Hu, Junhui Hou, Chenghao Zhang, Renwei Yang, Dapeng Oliver Wu,
- Abstract要約: 本稿では,ロバストな自己監督型環境対応学習と悪天候蒸留という2つの重要なステップからなる,堅牢な自己監督型訓練パラダイムを提案する。
提案手法の有効性と汎用性を実証し,既存の最先端の自己管理手法より優れていることを示す。
- 参考スコア(独自算出の注目度): 58.37558408672509
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent self-supervised stereo matching methods have made significant progress, but their performance significantly degrades under adverse weather conditions such as night, rain, and fog. We identify two primary weaknesses contributing to this performance degradation. First, adverse weather introduces noise and reduces visibility, making CNN-based feature extractors struggle with degraded regions like reflective and textureless areas. Second, these degraded regions can disrupt accurate pixel correspondences, leading to ineffective supervision based on the photometric consistency assumption. To address these challenges, we propose injecting robust priors derived from the visual foundation model into the CNN-based feature extractor to improve feature representation under adverse weather conditions. We then introduce scene correspondence priors to construct robust supervisory signals rather than relying solely on the photometric consistency assumption. Specifically, we create synthetic stereo datasets with realistic weather degradations. These datasets feature clear and adverse image pairs that maintain the same semantic context and disparity, preserving the scene correspondence property. With this knowledge, we propose a robust self-supervised training paradigm, consisting of two key steps: robust self-supervised scene correspondence learning and adverse weather distillation. Both steps aim to align underlying scene results from clean and adverse image pairs, thus improving model disparity estimation under adverse weather effects. Extensive experiments demonstrate the effectiveness and versatility of our proposed solution, which outperforms existing state-of-the-art self-supervised methods. Codes are available at \textcolor{blue}{https://github.com/cocowy1/RoSe-Robust-Self-supervised-Stereo-Matching-under-Adverse-Weather-Conditi ons}.
- Abstract(参考訳): 最近の自己監督型ステレオマッチング法は大きな進歩を遂げているが, 夜間, 雨, 霧などの悪天候条件下では, 性能が著しく低下する。
この性能低下に寄与する2つの主な弱点を特定します。
第一に、悪天候は騒音を発生させ、可視性を低下させ、CNNベースの特徴抽出器は反射性やテクスチャレスといった劣化した領域と競合する。
第二に、これらの劣化した領域は正確なピクセル対応を妨害し、光度整合性仮定に基づく非効率な監視につながる。
これらの課題に対処するために、悪天候下での特徴表現を改善するために、視覚基盤モデルから派生した頑健な事前情報をCNNベースの特徴抽出器に注入することを提案する。
次に、光度整合性仮定のみに依存するのではなく、頑健な監視信号を構築するために、シーン対応を前もって導入する。
具体的には、現実的な気象劣化を伴う合成ステレオデータセットを作成する。
これらのデータセットは、同じ意味的コンテキストと相違を保ち、シーン対応性を保持する、明確で有害なイメージペアである。
そこで本研究では,ロバストな自己監督型環境対応学習と悪天候蒸留という2つの重要なステップからなる,堅牢な自己監督型訓練パラダイムを提案する。
どちらのステップも、クリーンで有害な画像対から、背景となるシーン結果の整合を図ることを目的としており、悪天候下でのモデル差の推定を改善する。
提案手法の有効性と汎用性を実証し,既存の最先端の自己管理手法より優れていることを示す。
コードは、textcolor{blue}{https://github.com/cocowy1/RoSe-Robust-Self-supervised-Stereo-Matching-under-Adverse-Weather-Conditi ons}で公開されている。
関連論文リスト
- WeatherDiffusion: Weather-Guided Diffusion Model for Forward and Inverse Rendering [40.94600501568197]
WeatherDiffusionは、自動運転シーンの前方および逆レンダリングのための拡散ベースのフレームワークである。
本手法は, 物質特性, シーン形状, 照明の正確な推定を可能にするとともに, 制御可能な天気や照明の編集もサポートする。
論文 参考訳(メタデータ) (2025-08-09T13:29:39Z) - RobuSTereo: Robust Zero-Shot Stereo Matching under Adverse Weather [9.627322054208868]
学習に基づくステレオマッチングモデルは、トレーニングデータの不足により悪天候に苦しむ。
悪天候下でのステレオマッチングモデルのゼロショット一般化を促進する新しいフレームワークである textbfRobuSTereo を提案する。
論文 参考訳(メタデータ) (2025-07-02T12:27:53Z) - Pseudo-Label Guided Real-World Image De-weathering: A Learning Framework with Imperfect Supervision [57.5699142476311]
非理想的な監視を伴う実世界のイメージデウェザリングのための統一的なソリューションを提案する。
本手法は,不完全整合型非整合性データセットのトレーニングにおいて,大きな利点を示す。
論文 参考訳(メタデータ) (2025-04-14T07:24:03Z) - WeatherProof: A Paired-Dataset Approach to Semantic Segmentation in
Adverse Weather [9.619700283574533]
本稿では,悪天候条件下での画像の性能向上につながる一般的なペア学習手法を提案する。
我々は、正確な晴天と悪天候画像のペアで、最初のセマンティックセグメンテーションデータセットを作成する。
その結果,これら2組の晴天フレームと悪天候フレームのトレーニングにより,悪天候データの性能が向上することが判明した。
論文 参考訳(メタデータ) (2023-12-15T04:57:54Z) - Learning Real-World Image De-Weathering with Imperfect Supervision [57.748585821252824]
既存の現実世界のデヒータリングデータセットは、接地トラス画像と入力された劣化画像の間に、一貫性のない照明、位置、テクスチャを示すことが多い。
我々は、入力劣化画像と可能な限り一貫性のある擬似ラベルを生成するための一貫性ラベルコンストラクタ(CLC)を開発した。
我々は,従来の不完全ラベルと擬似ラベルを組み合わせることで,情報割当戦略による脱ウェザリングモデルを共同で監督する。
論文 参考訳(メタデータ) (2023-10-23T14:02:57Z) - DA-RAW: Domain Adaptive Object Detection for Real-World Adverse Weather Conditions [2.048226951354646]
悪天候下での物体検出のための教師なし領域適応フレームワークを提案する。
提案手法は,高次特徴のスタイル関連情報に集中することで,スタイルギャップを解消する。
自己教師付きコントラスト学習を用いて、我々のフレームワークは、気象のギャップを減らし、気象汚染に対して堅牢な事例特徴を取得する。
論文 参考訳(メタデータ) (2023-09-15T04:37:28Z) - Robust Monocular Depth Estimation under Challenging Conditions [81.57697198031975]
最先端のモノクル深度推定手法は、難解な照明や気象条件下では信頼性が低い。
我々はmd4allでこれらの安全クリティカルな問題に取り組む: 単純で効果的なソリューションで、悪条件と理想条件の両方で確実に機能する。
論文 参考訳(メタデータ) (2023-08-18T17:59:01Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Robustness of Object Detectors in Degrading Weather Conditions [7.91378990016322]
自律走行のための最先端の物体検出システムは、晴天条件下で有望な結果を達成する。
これらのシステムは、雨や霧、雪などの気象条件の悪化に対処する必要がある。
ほとんどのアプローチは、晴天のシーンのみからなるKITTIデータセットでのみ評価される。
論文 参考訳(メタデータ) (2021-06-16T13:56:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。