論文の概要: CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2107.00085v1
- Date: Wed, 30 Jun 2021 20:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 13:47:35.015316
- Title: CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation
- Title(参考訳): CLDA:半監督ドメイン適応のためのコントラスト学習
- Authors: Ankit Singh
- Abstract要約: Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unsupervised Domain Adaptation (UDA) aims to align the labeled source
distribution with the unlabeled target distribution to obtain domain invariant
predictive models. However, the application of well-known UDA approaches does
not generalize well in Semi-Supervised Domain Adaptation (SSDA) scenarios where
few labeled samples from the target domain are available. In this paper, we
propose a simple Contrastive Learning framework for semi-supervised Domain
Adaptation (CLDA) that attempts to bridge the intra-domain gap between the
labeled and unlabeled target distributions and inter-domain gap between source
and unlabeled target distribution in SSDA. We suggest employing class-wise
contrastive learning to reduce the inter-domain gap and instance-level
contrastive alignment between the original (input image) and strongly augmented
unlabeled target images to minimize the intra-domain discrepancy. We have shown
empirically that both of these modules complement each other to achieve
superior performance. Experiments on three well-known domain adaptation
benchmark datasets namely DomainNet, Office-Home, and Office31 demonstrate the
effectiveness of our approach. CLDA achieves state-of-the-art results on all
the above datasets.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布を一致させて、ドメイン不変の予測モデルを得る。
しかし、よく知られたUDAアプローチの応用は、ターゲットドメインからのラベル付きサンプルがほとんどないセミスーパーバイズドドメイン適応(SSDA)のシナリオではうまく一般化しない。
本稿では,半教師付きドメイン適応(CLDA)のための単純なコントラスト学習フレームワークを提案する。これは,ラベル付きとラベルなしのターゲット分布間の領域内ギャップと,SSDAのソースとラベルなしのターゲット分布間の領域間ギャップを橋渡ししようとするものである。
本稿では,ドメイン間ギャップとインスタンスレベルのコントラストアライメントを,ドメイン内不一致を最小限に抑えるために,クラスワイドコントラスト学習を用いることを提案する。
両モジュールが互いに補完し,優れた性能を実現することを実証的に証明した。
DomainNet、Office-Home、Office31という3つの有名なドメイン適応ベンチマークデータセットの実験は、我々のアプローチの有効性を実証している。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
関連論文リスト
- Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - IIDM: Inter and Intra-domain Mixing for Semi-supervised Domain Adaptation in Semantic Segmentation [46.6002506426648]
教師なし領域適応(Unsupervised domain adapt, UDA)は、この問題を解決する主要なアプローチである。
この制限を克服するための半教師付きドメイン適応(SSDA)を提案する。
我々は、ドメイン間混合がソース・ターゲット領域ギャップを緩和し、ドメイン内混合が利用可能なターゲットドメイン情報を豊かにする、インター・ドメイン・ミキシング(IIDM)とイントラ・ドメイン・ミキシング(IIDM)の両方を組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T08:44:21Z) - Joint Distribution Alignment via Adversarial Learning for Domain
Adaptive Object Detection [11.262560426527818]
教師なしのドメイン適応オブジェクト検出は、リッチラベル付きデータで訓練された元のソースドメインから、ラベルなしデータで新しいターゲットドメインに適応することを目的としている。
近年、主流のアプローチは、敵対的学習を通じてこのタスクを実行するが、それでも2つの制限に悩まされている。
上記の課題に対処するために,JADF(Joint Adaptive Detection framework)を提案する。
論文 参考訳(メタデータ) (2021-09-19T00:27:08Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。