論文の概要: Robust Synthetic-to-Real Transfer for Stereo Matching
- arxiv url: http://arxiv.org/abs/2403.07705v1
- Date: Tue, 12 Mar 2024 14:50:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 21:15:16.328390
- Title: Robust Synthetic-to-Real Transfer for Stereo Matching
- Title(参考訳): ステレオマッチングのためのロバスト合成-リール変換
- Authors: Jiawei Zhang, Jiahe Li, Lei Huang, Xiaohan Yu, Lin Gu, Jin Zheng, Xiao
Bai
- Abstract要約: 未確認領域に対するロバスト性を損なうことなく、細調整のステレオマッチングネットワークを探索する。
我々のモチベーションは、微調整においてGTとPLを比較したことである。
本研究では,凍結教師,指数移動平均教師(EMA)教師,学生ネットワークからなる微調整にこの差を利用するための枠組みを提案する。
- 参考スコア(独自算出の注目度): 19.756319118955354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With advancements in domain generalized stereo matching networks, models
pre-trained on synthetic data demonstrate strong robustness to unseen domains.
However, few studies have investigated the robustness after fine-tuning them in
real-world scenarios, during which the domain generalization ability can be
seriously degraded. In this paper, we explore fine-tuning stereo matching
networks without compromising their robustness to unseen domains. Our
motivation stems from comparing Ground Truth (GT) versus Pseudo Label (PL) for
fine-tuning: GT degrades, but PL preserves the domain generalization ability.
Empirically, we find the difference between GT and PL implies valuable
information that can regularize networks during fine-tuning. We also propose a
framework to utilize this difference for fine-tuning, consisting of a frozen
Teacher, an exponential moving average (EMA) Teacher, and a Student network.
The core idea is to utilize the EMA Teacher to measure what the Student has
learned and dynamically improve GT and PL for fine-tuning. We integrate our
framework with state-of-the-art networks and evaluate its effectiveness on
several real-world datasets. Extensive experiments show that our method
effectively preserves the domain generalization ability during fine-tuning.
- Abstract(参考訳): ドメイン一般化ステレオマッチングネットワークの進歩により、合成データに事前訓練されたモデルは、目に見えない領域に対して強い堅牢性を示す。
しかし、実際のシナリオでそれらを微調整した後、ドメインの一般化能力を著しく劣化させるような堅牢性について研究する研究はほとんどない。
本稿では,未確認領域に対するロバスト性を損なうことなく,微調整型ステレオマッチングネットワークについて検討する。
我々のモチベーションは、グラウンド真実(GT)とPseudo Label(PL)を比較して微調整することにある: GTは劣化するが、PLはドメインの一般化能力を保っている。
実験的にGTとPLの違いは、微調整中にネットワークを正規化できる貴重な情報を意味する。
また,凍結教師,指数移動平均教師(EMA)教師,学生ネットワークからなる微調整にこの差を利用するための枠組みを提案する。
中心となる考え方は、EMAの教師を使って学生が学んだことを測定し、微調整のためにGTとPLを動的に改善することである。
我々はこのフレームワークを最先端のネットワークと統合し,いくつかの実世界のデータセット上での有効性を評価する。
大規模な実験により,本手法は微調整時の領域一般化能力を効果的に維持することを示した。
関連論文リスト
- Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Distilling Representations from GAN Generator via Squeeze and Span [55.76208869775715]
本稿では,GANジェネレータから知識を抽出し,その表現を抽出する手法を提案する。
我々は,合成ドメインの蒸留された表現を実領域に分散し,実際のトレーニングデータを用いてGANのモード崩壊を緩和する。
論文 参考訳(メタデータ) (2022-11-06T01:10:28Z) - Generalizability of Adversarial Robustness Under Distribution Shifts [57.767152566761304]
本研究は, 実証的, 証明された敵対的堅牢性間の相互作用と, ドメインの一般化を両立させるための第一歩を踏み出した。
複数のドメインでロバストモデルをトレーニングし、その正確性とロバスト性を評価する。
本研究は, 現実の医療応用をカバーするために拡張され, 敵の増大は, クリーンデータ精度に最小限の影響を伴って, 強靭性の一般化を著しく促進する。
論文 参考訳(メタデータ) (2022-09-29T18:25:48Z) - Geometry-Aware Unsupervised Domain Adaptation [12.298214579392129]
Unsupervised Domain Adaptation (UDA)は、データセットシフトの存在下で、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
既存のほとんどのメソッドは、ドメインのアライメントやクラス識別にうまく対応できないため、下流タスクの本質的なデータ構造を歪めてしまう可能性がある。
核ノルム最適化により,移動可能性と識別性を同時に学習するための新しい幾何認識モデルを提案する。
論文 参考訳(メタデータ) (2021-12-21T08:45:42Z) - Robust Ensembling Network for Unsupervised Domain Adaptation [20.152004296679138]
教師なしドメイン適応(UDA)のためのRobust Ensembling Network(REN)を提案する。
RENは主に教師ネットワークと学生ネットワークを含み、標準的なドメイン適応トレーニングを実行し、教師ネットワークの重みを更新する。
学生ネットワークの基本能力を向上させるために,学生ネットワークと教師ネットワークの誤りのバランスをとるために,一貫性制約を利用する。
論文 参考訳(メタデータ) (2021-08-21T09:19:13Z) - Graph Consistency based Mean-Teaching for Unsupervised Domain Adaptive
Person Re-Identification [54.58165777717885]
本論文では,教師ネットワークと学生ネットワークの間にGCC(Graph Consistency Constraint)を構築するためのGCMT(Graph Consistency Based Mean-Teaching)手法を提案する。
マーケット-1501、デュークMTMCreID、MSMT17の3つのデータセットの実験により、提案されたGCMTは最先端の手法よりも明確なマージンで優れていることが示された。
論文 参考訳(メタデータ) (2021-05-11T04:09:49Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Geometric Unsupervised Domain Adaptation for Semantic Segmentation [35.492127636785824]
シミュレータは、セマンティックセグメンテーションのようなラベルが難しいタスクを完全に監督して、大量のラベル付き合成データを効率的に生成できます。
このギャップを橋渡しし、sim-to-real unsupervised domain adaptを改善するために、自己監視単眼深度推定をプロキシタスクとして使用する。
本手法は, 合成データの質や量によく対応し, 深度予測も改善する。
論文 参考訳(メタデータ) (2021-03-30T21:33:00Z) - Dual-Teacher++: Exploiting Intra-domain and Inter-domain Knowledge with
Reliable Transfer for Cardiac Segmentation [69.09432302497116]
最先端の半教師付きドメイン適応フレームワークである Dual-Teacher++ を提案する。
ソースドメイン(MRなど)からのクロスモダリティ優先度を探索するドメイン間教師モデルと、ラベルのないターゲットドメインの知識を調査するドメイン内教師モデルを含む、新しいデュアル教師モデルを設計する。
このようにして、学生モデルは信頼できる二重ドメイン知識を得て、ターゲットドメインデータのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-01-07T05:17:38Z) - Unsupervised Domain Adaptation with Multiple Domain Discriminators and
Adaptive Self-Training [22.366638308792734]
Unsupervised Domain Adaptation (UDA)は、ソースドメインでトレーニングされたモデルの一般化能力を改善し、ラベル付きデータが使用できないターゲットドメインでうまく機能することを目的としている。
本稿では、合成データに基づいて訓練されたディープニューラルネットワークを、2つの異なるデータ分布間のドメインシフトに対処する実シーンに適用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-27T11:48:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。