論文の概要: CMD: Constraining Multimodal Distribution for Domain Adaptation in Stereo Matching
- arxiv url: http://arxiv.org/abs/2504.21302v1
- Date: Wed, 30 Apr 2025 04:23:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 22:36:36.552139
- Title: CMD: Constraining Multimodal Distribution for Domain Adaptation in Stereo Matching
- Title(参考訳): CMD:ステレオマッチングにおける領域適応のためのマルチモーダル分布の制約
- Authors: Zhelun Shen, Zhuo Li, Chenming Wu, Zhibo Rao, Lina Liu, Yuchao Dai, Liangjun Zhang,
- Abstract要約: 教師なし領域適応のシナリオでは、ソフトアルグミンと滑らかなL1損失は、しばしばターゲット領域における多重モードの異性確率分布をもたらす。
本稿では,この問題に対処する新しいアプローチとして,CMD(Constrain Multi-modal Distribution)を提案する。
結果は、トップパフォーマンスモデルとドメイン適応型ステレオマッチングモデルの両方において、改良された一般化を一貫して示している。
- 参考スコア(独自算出の注目度): 44.04860766647667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, learning-based stereo matching methods have achieved great improvement in public benchmarks, where soft argmin and smooth L1 loss play a core contribution to their success. However, in unsupervised domain adaptation scenarios, we observe that these two operations often yield multimodal disparity probability distributions in target domains, resulting in degraded generalization. In this paper, we propose a novel approach, Constrain Multi-modal Distribution (CMD), to address this issue. Specifically, we introduce \textit{uncertainty-regularized minimization} and \textit{anisotropic soft argmin} to encourage the network to produce predominantly unimodal disparity distributions in the target domain, thereby improving prediction accuracy. Experimentally, we apply the proposed method to multiple representative stereo-matching networks and conduct domain adaptation from synthetic data to unlabeled real-world scenes. Results consistently demonstrate improved generalization in both top-performing and domain-adaptable stereo-matching models. The code for CMD will be available at: \href{https://github.com/gallenszl/CMD}{https://github.com/gallenszl/CMD}.
- Abstract(参考訳): 近年、学習に基づくステレオマッチング手法は、ソフトなアルグミンと滑らかなL1損失がそれらの成功に寄与する公的なベンチマークにおいて大きな進歩を遂げている。
しかし、教師なし領域適応のシナリオでは、これらの2つの操作がターゲット領域における多重モード不均等確率分布を生じることが多く、結果として一般化が劣化する。
本稿では,この問題に対処する新しい手法として,CMD(Constrain Multi-modal Distribution)を提案する。
具体的には,対象領域における大半が非特異な分布を生成することをネットワークに促し,予測精度を向上させることを目的として, \textit{uncertainty-regularized minimization} と \textit{anisotropic soft argmin} を導入する。
実験により,提案手法を複数のステレオマッチングネットワークに適用し,合成データから実世界の未ラベルシーンへのドメイン適応を行う。
結果は、トップパフォーマンスモデルとドメイン適応型ステレオマッチングモデルの両方において、改良された一般化を一貫して示している。
CMDのコードは以下の通りである。 \href{https://github.com/gallenszl/CMD}{https://github.com/gallenszl/CMD}。
関連論文リスト
- Improving Distribution Alignment with Diversity-based Sampling [0.0]
ドメインシフトは機械学習においてユビキタスであり、実際のデータにデプロイすると、モデルのパフォーマンスが大幅に低下する可能性がある。
本稿では,各サンプル小バッチの多様性を誘導することにより,これらの推定値を改善することを提案する。
同時にデータのバランスを保ち、勾配のばらつきを低減し、それによってモデルの一般化能力を高める。
論文 参考訳(メタデータ) (2024-10-05T17:26:03Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - KL Guided Domain Adaptation [88.19298405363452]
ドメイン適応は重要な問題であり、現実世界のアプリケーションにしばしば必要である。
ドメイン適応文学における一般的なアプローチは、ソースとターゲットドメインに同じ分布を持つ入力の表現を学ぶことである。
確率的表現ネットワークにより、KL項はミニバッチサンプルにより効率的に推定できることを示す。
論文 参考訳(メタデータ) (2021-06-14T22:24:23Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Learning to Match Distributions for Domain Adaptation [116.14838935146004]
本稿では,ドメイン間分布マッチングを自動的に学習する学習 to Match (L2M)を提案する。
L2Mは、メタネットワークを用いてデータ駆動方式で分布整合損失を学習することにより、誘導バイアスを低減する。
公開データセットの実験は、SOTA法よりもL2Mの方が優れていることを裏付けている。
論文 参考訳(メタデータ) (2020-07-17T03:26:13Z) - Maximum Density Divergence for Domain Adaptation [0.0]
教師なしドメイン適応は、十分にラベル付けされたソースドメインからラベル付けされていないターゲットドメインへ知識を転送する問題に対処する。
本稿では,敵対的学習とメートル法学習の両方の利点を享受するATM(Adversarial Tight Match)というドメイン適応手法を提案する。
論文 参考訳(メタデータ) (2020-04-27T07:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。