論文の概要: Generative Model Based Noise Robust Training for Unsupervised Domain
Adaptation
- arxiv url: http://arxiv.org/abs/2303.05734v1
- Date: Fri, 10 Mar 2023 06:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-13 15:48:26.728300
- Title: Generative Model Based Noise Robust Training for Unsupervised Domain
Adaptation
- Title(参考訳): 教師なし領域適応のための生成モデルに基づくノイズロバスト学習
- Authors: Zhongying Deng, Da Li, Junjun He, Yi-Zhe Song, Tao Xiang
- Abstract要約: 本稿では, 生成モデルに基づくノイズ・ロバスト訓練法(GeNRT)を提案する。
ラベルノイズを緩和しながらドメインシフトを除去する。
Office-Home、PACS、Digit-Fiveの実験は、GeNRTが最先端のメソッドに匹敵するパフォーマンスを実現していることを示している。
- 参考スコア(独自算出の注目度): 108.11783463263328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Target domain pseudo-labelling has shown effectiveness in unsupervised domain
adaptation (UDA). However, pseudo-labels of unlabeled target domain data are
inevitably noisy due to the distribution shift between source and target
domains. This paper proposes a Generative model-based Noise-Robust Training
method (GeNRT), which eliminates domain shift while mitigating label noise.
GeNRT incorporates a Distribution-based Class-wise Feature Augmentation (D-CFA)
and a Generative-Discriminative classifier Consistency (GDC), both based on the
class-wise target distributions modelled by generative models. D-CFA minimizes
the domain gap by augmenting the source data with distribution-sampled target
features, and trains a noise-robust discriminative classifier by using target
domain knowledge from the generative models. GDC regards all the class-wise
generative models as generative classifiers and enforces a consistency
regularization between the generative and discriminative classifiers. It
exploits an ensemble of target knowledge from all the generative models to
train a noise-robust discriminative classifier and eventually gets
theoretically linked to the Ben-David domain adaptation theorem for reducing
the domain gap. Extensive experiments on Office-Home, PACS, and Digit-Five show
that our GeNRT achieves comparable performance to state-of-the-art methods
under single-source and multi-source UDA settings.
- Abstract(参考訳): ターゲットドメインの擬似ラベリングは、教師なしドメイン適応(UDA)において有効である。
しかし、ソースとターゲットドメイン間の分散シフトのため、ラベルなしのターゲットドメインデータの擬似ラベルは必然的にノイズとなる。
本稿では、ラベルノイズを緩和しながらドメインシフトを除去する生成モデルに基づくノイズ-ロバスト訓練法(GeNRT)を提案する。
genrtには、分散ベースのクラスワイズ機能拡張(d-cfa)と、生成モデルによってモデル化されたクラスワイズターゲット分布に基づくジェネレーティブ判別分類子一貫性(gdc)が組み込まれている。
D-CFAは、ソースデータを分布サンプリングされたターゲット特徴で拡張することにより、ドメインギャップを最小化し、生成モデルからターゲットドメイン知識を用いてノイズロスト識別分類器を訓練する。
GDCは、すべてのクラスワイド生成モデルを生成的分類器とみなし、生成的分類器と識別的分類器の整合正則化を強制する。
これは、全ての生成モデルから対象知識のアンサンブルを利用してノイズロスト判別分類器を訓練し、最終的にドメインギャップを減らすためのBen-Davidドメイン適応定理に理論的に関連付けられる。
Office-Home、PACS、Digit-Fiveの大規模な実験により、GeNRTは、単一ソースおよび複数ソースのUDA設定下での最先端のメソッドに匹敵するパフォーマンスを実現しています。
関連論文リスト
- ProtoGMM: Multi-prototype Gaussian-Mixture-based Domain Adaptation Model for Semantic Segmentation [0.8213829427624407]
ドメイン適応型セマンティックセグメンテーションは、ラベルのないターゲットドメインに対して正確で高密度な予測を生成することを目的としている。
本稿では,GMMを比較学習に組み込んだProtoGMMモデルを提案する。
クラス間のセマンティックな類似性の向上,クラス間の類似性の低下,およびソースドメインとターゲットドメイン間のドメインアライメントを実現するために,マルチプロトタイプコントラスト学習を採用する。
論文 参考訳(メタデータ) (2024-06-27T14:50:50Z) - CNG-SFDA:Clean-and-Noisy Region Guided Online-Offline Source-Free Domain Adaptation [6.222371087167951]
Source-Free Domain Adaptation (SFDA)は、ソースドメインのトレーニングされたモデルをターゲットドメインに採用することを目的としている。
ターゲットドメインでの偽ラベルの扱いは、モデルのパフォーマンスに悪影響を及ぼすため、非常に重要です。
我々は、オンライン/オフラインのSFDA設定において、複数のデータセットに関する広範な実験を行い、その結果、CNG-SFDAは、ほとんどのケースで最先端を実現していることを示す。
論文 参考訳(メタデータ) (2024-01-26T01:29:37Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Polycentric Clustering and Structural Regularization for Source-free
Unsupervised Domain Adaptation [20.952542421577487]
Source-Free Domain Adaptation (SFDA)は、訓練済みのソースモデルから学習した知識を未確認のターゲットドメインに転送することで、ドメイン適応問題を解決することを目的としている。
既存のほとんどのメソッドは、機能プロトタイプを生成することによって、ターゲットデータに擬似ラベルを割り当てる。
本稿では,PCSRと命名された新しいフレームワークを,クラス内多中心クラスタリングおよび構造規則化戦略を通じてSFDAに取り組むために提案する。
論文 参考訳(メタデータ) (2022-10-14T02:20:48Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。