論文の概要: MetaCorrection: Domain-aware Meta Loss Correction for Unsupervised
Domain Adaptation in Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2103.05254v1
- Date: Tue, 9 Mar 2021 06:57:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:59:12.396201
- Title: MetaCorrection: Domain-aware Meta Loss Correction for Unsupervised
Domain Adaptation in Semantic Segmentation
- Title(参考訳): MetaCorrection:セマンティックセグメンテーションにおける教師なしドメイン適応のためのドメイン認識メタロス補正
- Authors: Xiaoqing Guo, Chen Yang, Baopu Li, Yixuan Yuan
- Abstract要約: unsupervised domain adaptation (uda) はラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
既存の自己学習に基づくUDAアプローチでは、ターゲットデータに擬似ラベルを割り当て、それらを基底真理ラベルとして扱う。
ソースドメインに最適化されたモデルから生成された擬似ラベルは、必然的にドメインギャップによるノイズを含む。
- 参考スコア(独自算出の注目度): 14.8840510432657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) aims to transfer the knowledge from the
labeled source domain to the unlabeled target domain. Existing self-training
based UDA approaches assign pseudo labels for target data and treat them as
ground truth labels to fully leverage unlabeled target data for model
adaptation. However, the generated pseudo labels from the model optimized on
the source domain inevitably contain noise due to the domain gap. To tackle
this issue, we advance a MetaCorrection framework, where a Domain-aware
Meta-learning strategy is devised to benefit Loss Correction (DMLC) for UDA
semantic segmentation. In particular, we model the noise distribution of pseudo
labels in target domain by introducing a noise transition matrix (NTM) and
construct meta data set with domain-invariant source data to guide the
estimation of NTM. Through the risk minimization on the meta data set, the
optimized NTM thus can correct the noisy issues in pseudo labels and enhance
the generalization ability of the model on the target data. Considering the
capacity gap between shallow and deep features, we further employ the proposed
DMLC strategy to provide matched and compatible supervision signals for
different level features, thereby ensuring deep adaptation. Extensive
experimental results highlight the effectiveness of our method against existing
state-of-the-art methods on three benchmarks.
- Abstract(参考訳): unsupervised domain adaptation (uda) はラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
既存のセルフトレーニングベースのUDAアプローチは、ターゲットデータに擬似ラベルを割り当て、モデル適応のためにラベルされていないターゲットデータを完全に活用するために基底真理ラベルとして扱う。
しかし、ソースドメインに最適化されたモデルから生成された擬似ラベルは、必然的にドメインギャップによるノイズを含む。
この問題に対処するため、UDAセマンティックセグメンテーションの損失補正(DMLC)のためにドメイン対応メタ学習戦略を考案したMetaCorrectionフレームワークを前進させる。
特に、ノイズ遷移行列(NTM)を導入してターゲット領域内の擬似ラベルのノイズ分布をモデル化し、ドメイン不変なソースデータを用いたメタデータセットを構築し、NTMの推定を導く。
メタデータセットのリスク最小化により、最適化されたNTMは擬似ラベルのノイズ問題を補正し、対象データに対するモデルの一般化能力を高めることができる。
さらに,浅部特徴と深部特徴の容量ギャップを考慮し,異なるレベルの特徴に対して一致した,互換性のある監視信号を提供することにより,深部適応の確保を図る。
広範な実験結果から,3つのベンチマークにおける既存手法に対する提案手法の有効性が示された。
関連論文リスト
- GenGMM: Generalized Gaussian-Mixture-based Domain Adaptation Model for Semantic Segmentation [0.9626666671366837]
一般化ガウス混合(GenGMM)ドメイン適応モデルを導入する。
実験は我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-10-21T20:21:09Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - IIDM: Inter and Intra-domain Mixing for Semi-supervised Domain Adaptation in Semantic Segmentation [46.6002506426648]
教師なし領域適応(Unsupervised domain adapt, UDA)は、この問題を解決する主要なアプローチである。
この制限を克服するための半教師付きドメイン適応(SSDA)を提案する。
我々は、ドメイン間混合がソース・ターゲット領域ギャップを緩和し、ドメイン内混合が利用可能なターゲットドメイン情報を豊かにする、インター・ドメイン・ミキシング(IIDM)とイントラ・ドメイン・ミキシング(IIDM)の両方を組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T08:44:21Z) - Towards Source-free Domain Adaptive Semantic Segmentation via Importance-aware and Prototype-contrast Learning [26.544837987747766]
本稿では、Importance-Aware と Prototype-Contrast Learning を用いた、エンドツーエンドのソースフリードメイン適応セマンティックセマンティックセマンティクス手法を提案する。
提案したIAPCフレームワークは、訓練済みソースモデルからドメイン不変知識を効果的に抽出し、ラベルなしターゲットドメインからドメイン固有知識を学習する。
論文 参考訳(メタデータ) (2023-06-02T15:09:19Z) - Memory Consistent Unsupervised Off-the-Shelf Model Adaptation for
Source-Relaxed Medical Image Segmentation [13.260109561599904]
非教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きヘテロジニアスターゲットドメインに学習した情報を移行するための重要なプロトコルである。
我々は、ソースドメインで訓練されたOSセグメントをターゲットドメインに適応させることにより、イメージセグメンテーションを目的とした「オフ・ザ・シェルフ(OS)」 UDA (OSUDA) を提案する。
論文 参考訳(メタデータ) (2022-09-16T13:13:50Z) - ACT: Semi-supervised Domain-adaptive Medical Image Segmentation with
Asymmetric Co-training [34.017031149886556]
非教師なしドメイン適応(UDA)は、ソースとターゲットドメイン間のドメインシフトを軽減するために大いに研究されてきた。
本稿では,ラベル付けされていないターゲットデータに加えて,ラベル付きソースデータとターゲットドメインデータの両方を統一的に活用することを提案する。
本稿では、これらのサブセットを統合し、ソースドメインデータの支配を回避するための、新しい非対称コトレーニング(ACT)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-05T23:48:00Z) - Labeling Where Adapting Fails: Cross-Domain Semantic Segmentation with
Point Supervision via Active Selection [81.703478548177]
セマンティックセグメンテーションに特化したトレーニングモデルは、大量のピクセル単位のアノテートデータを必要とする。
教師なしドメイン適応手法は、ラベル付きソースとラベルなしターゲットデータとの間の特徴分布の整合化を目的としている。
以前の研究は、対象データにスパース単一ピクセルアノテーションという形で、人間のインタラクションをこのプロセスに含めようと試みていた。
アクティブな選択による注釈付きポイントを用いた意味的セグメンテーションのための新しいドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-01T01:52:28Z) - CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement [84.10513481953583]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
論文 参考訳(メタデータ) (2022-05-26T18:45:04Z) - Source-Free Domain Adaptive Fundus Image Segmentation with Denoised
Pseudo-Labeling [56.98020855107174]
ドメイン適応は通常、ソースドメインデータにアクセスして、ターゲットデータとのドメインアライメントのために配布情報を利用する必要があります。
多くの実世界のシナリオでは、プライバシの問題により、ターゲットドメインのモデル適応中にソースデータがアクセスできない場合がある。
本稿では,本問題に対する新たな擬似ラベル付け手法を提案する。
論文 参考訳(メタデータ) (2021-09-19T06:38:21Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。