論文の概要: RobuSTereo: Robust Zero-Shot Stereo Matching under Adverse Weather
- arxiv url: http://arxiv.org/abs/2507.01653v1
- Date: Wed, 02 Jul 2025 12:27:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.230295
- Title: RobuSTereo: Robust Zero-Shot Stereo Matching under Adverse Weather
- Title(参考訳): RobuSTereo: 逆気象下でのロバストゼロショットステレオマッチング
- Authors: Yuran Wang, Yingping Liang, Yutao Hu, Ying Fu,
- Abstract要約: 学習に基づくステレオマッチングモデルは、トレーニングデータの不足により悪天候に苦しむ。
悪天候下でのステレオマッチングモデルのゼロショット一般化を促進する新しいフレームワークである textbfRobuSTereo を提案する。
- 参考スコア(独自算出の注目度): 9.627322054208868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based stereo matching models struggle in adverse weather conditions due to the scarcity of corresponding training data and the challenges in extracting discriminative features from degraded images. These limitations significantly hinder zero-shot generalization to out-of-distribution weather conditions. In this paper, we propose \textbf{RobuSTereo}, a novel framework that enhances the zero-shot generalization of stereo matching models under adverse weather by addressing both data scarcity and feature extraction challenges. First, we introduce a diffusion-based simulation pipeline with a stereo consistency module, which generates high-quality stereo data tailored for adverse conditions. By training stereo matching models on our synthetic datasets, we reduce the domain gap between clean and degraded images, significantly improving the models' robustness to unseen weather conditions. The stereo consistency module ensures structural alignment across synthesized image pairs, preserving geometric integrity and enhancing depth estimation accuracy. Second, we design a robust feature encoder that combines a specialized ConvNet with a denoising transformer to extract stable and reliable features from degraded images. The ConvNet captures fine-grained local structures, while the denoising transformer refines global representations, effectively mitigating the impact of noise, low visibility, and weather-induced distortions. This enables more accurate disparity estimation even under challenging visual conditions. Extensive experiments demonstrate that \textbf{RobuSTereo} significantly improves the robustness and generalization of stereo matching models across diverse adverse weather scenarios.
- Abstract(参考訳): 学習型ステレオマッチングモデルは, トレーニングデータの不足や, 劣化画像から識別的特徴を抽出する上での課題により, 悪天候条件に苦しむ。
これらの制限は、分布外の気象条件に対するゼロショットの一般化を著しく妨げている。
本稿では,データ不足と特徴抽出の両課題に対処することで,悪天候下でのステレオマッチングモデルのゼロショット一般化を促進する新しいフレームワークである「textbf{RobuSTereo}」を提案する。
まず,不適切な条件に合わせた高品質なステレオデータを生成するステレオ整合モジュールを用いた拡散シミュレーションパイプラインを提案する。
合成データセット上でステレオマッチングモデルをトレーニングすることにより、クリーン画像と劣化画像の間の領域ギャップを減らし、未知の気象条件に対するモデルの堅牢性を大幅に改善する。
ステレオ整合モジュールは、合成画像対間の構造的整合性を確保し、幾何的整合性を保持し、深さ推定精度を向上する。
第二に、特殊なConvNetと復調変換器を組み合わせた堅牢な特徴エンコーダを設計し、劣化した画像から安定かつ信頼性の高い特徴を抽出する。
ConvNetは微細な局所構造を捉え、デノナイジングトランスフォーマーはグローバルな表現を洗練し、ノイズ、低視界、気象による歪みの影響を効果的に緩和する。
これにより、難解な視覚条件下であっても、より正確な異質度推定が可能になる。
大規模な実験により, 種々の悪天候シナリオにおけるステレオマッチングモデルのロバスト性や一般化が著しく向上することが示された。
関連論文リスト
- Pseudo-Label Guided Real-World Image De-weathering: A Learning Framework with Imperfect Supervision [57.5699142476311]
非理想的な監視を伴う実世界のイメージデウェザリングのための統一的なソリューションを提案する。
本手法は,不完全整合型非整合性データセットのトレーニングにおいて,大きな利点を示す。
論文 参考訳(メタデータ) (2025-04-14T07:24:03Z) - FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [63.87313550399871]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基礎モデルと潜在空間アライメントによるクロスモーダルな知識伝達を確立する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Scalable Benchmarking and Robust Learning for Noise-Free Ego-Motion and 3D Reconstruction from Noisy Video [30.89206445146674]
ノイズフリーデータへの依存という限界に対処することで、ロバストなエゴモーション推定とフォトリアリスティックな3D再構成を再定義することを目指している。
スケーラブルなデータ生成、包括的な堅牢性、モデルの強化という3つの課題に取り組んでいます。
Robust-Ego3Dという,ノイズによるパフォーマンス劣化の顕在化を目的としたベンチマークを作成しました。
論文 参考訳(メタデータ) (2025-01-24T08:25:48Z) - ZeroStereo: Zero-shot Stereo Matching from Single Images [17.560148513475387]
ゼロショットステレオマッチングのための新しいステレオ画像生成パイプラインであるZeroStereoを提案する。
提案手法は, 単眼深度推定モデルにより生成された擬似格差を利用して, 高品質な右画像の合成を行う。
我々のパイプラインは、Scene Flowに匹敵するデータセットボリュームで複数のデータセットにまたがる最先端のゼロショット一般化を実現する。
論文 参考訳(メタデータ) (2025-01-15T08:43:48Z) - WTCL-Dehaze: Rethinking Real-world Image Dehazing via Wavelet Transform and Contrastive Learning [17.129068060454255]
自律運転や監視といったアプリケーションには、単一イメージのデハジングが不可欠だ。
コントラスト損失と離散ウェーブレット変換を統合した半教師付きデハージングネットワークを提案する。
提案アルゴリズムは,最先端の単一画像復調法と比較して,優れた性能とロバスト性を実現している。
論文 参考訳(メタデータ) (2024-10-07T05:36:11Z) - Digging into contrastive learning for robust depth estimation with diffusion models [55.62276027922499]
そこで我々はD4RDと呼ばれる新しい頑健な深度推定法を提案する。
複雑な環境での性能劣化を軽減するために、拡散モデルに適した独自のコントラスト学習モードを備えている。
実験では、D4RDは合成汚職データセットや現実世界の気象条件に関する最先端のソリューションを超越している。
論文 参考訳(メタデータ) (2024-04-15T14:29:47Z) - Reconstruct-and-Generate Diffusion Model for Detail-Preserving Image
Denoising [16.43285056788183]
再構成・生成拡散モデル(Reconstruct-and-Generate Diffusion Model, RnG)と呼ばれる新しい手法を提案する。
提案手法は, 再構成型復調ネットワークを利用して, 基礎となるクリーン信号の大半を復元する。
拡散アルゴリズムを用いて残留する高周波の詳細を生成し、視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-09-19T16:01:20Z) - Steerable Conditional Diffusion for Out-of-Distribution Adaptation in Medical Image Reconstruction [75.91471250967703]
我々は、ステアブル条件拡散と呼ばれる新しいサンプリングフレームワークを導入する。
このフレームワークは、利用可能な測定によって提供される情報のみに基づいて、画像再構成と並行して拡散モデルを適用する。
様々な画像モダリティにまたがるアウト・オブ・ディストリビューション性能の大幅な向上を実現した。
論文 参考訳(メタデータ) (2023-08-28T08:47:06Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Consistency Guided Scene Flow Estimation [159.24395181068218]
CGSFは立体映像からの3次元シーン構造と動きの同時再構成のための自己教師型フレームワークである。
提案モデルでは,課題の画像の相違やシーンフローを確実に予測できることを示す。
最先端技術よりも優れた一般化を実現し、目に見えない領域に迅速かつ堅牢に適応する。
論文 参考訳(メタデータ) (2020-06-19T17:28:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。