論文の概要: Domain Confused Contrastive Learning for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2207.04564v1
- Date: Sun, 10 Jul 2022 23:23:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 12:58:48.163813
- Title: Domain Confused Contrastive Learning for Unsupervised Domain Adaptation
- Title(参考訳): 教師なしドメイン適応のためのドメイン混乱型コントラスト学習
- Authors: Quanyu Long, Tianze Luo, Wenya Wang and Sinno Jialin Pan
- Abstract要約: 本研究では,Unsupervised Domain Adaptation (UDA) を挑戦的な自己教師型アプローチで研究する。
課題の1つは、ターゲットラベルがない場合にタスクの識別を学習する方法である。
本稿では、ソースとターゲットドメインをブリッジするために、ドメイン混乱型コントラスト学習(DCCL)を提案する。
- 参考スコア(独自算出の注目度): 45.40427576684924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we study Unsupervised Domain Adaptation (UDA) in a challenging
self-supervised approach. One of the difficulties is how to learn task
discrimination in the absence of target labels. Unlike previous literature
which directly aligns cross-domain distributions or leverages reverse gradient,
we propose Domain Confused Contrastive Learning (DCCL) to bridge the source and
the target domains via domain puzzles, and retain discriminative
representations after adaptation. Technically, DCCL searches for a most
domain-challenging direction and exquisitely crafts domain confused
augmentations as positive pairs, then it contrastively encourages the model to
pull representations towards the other domain, thus learning more stable and
effective domain invariances. We also investigate whether contrastive learning
necessarily helps with UDA when performing other data augmentations. Extensive
experiments demonstrate that DCCL significantly outperforms baselines.
- Abstract(参考訳): 本研究では,Unsupervised Domain Adaptation (UDA) を自己教師型アプローチで研究する。
課題の1つは、ターゲットラベルがない場合にタスクの識別を学習する方法である。
クロスドメイン分布を直接調整したり、逆勾配を利用する従来の文献とは異なり、我々は、ソースとターゲットドメインをドメインパズルで橋渡しし、適応後の判別表現を保持するために、dccl(domain confused contrastive learning)を提案する。
技術的には、dcclは最もドメインを混乱させる方向を探索し、ドメインを正のペアとして混乱させ、それと対照的にモデルに他のドメインへの表現を引き出すことを奨励し、より安定で効果的なドメイン不変性を学ぶ。
また、他のデータ拡張を行う際に、コントラスト学習が UDA に役立つかどうかについても検討する。
大規模な実験により、DCCLはベースラインを著しく上回ることが示された。
関連論文リスト
- Overcoming Negative Transfer by Online Selection: Distant Domain Adaptation for Fault Diagnosis [42.85741244467877]
遠距離領域適応問題」という用語は、ラベル付きソースドメインからラベル付き未ラベルのターゲットドメインへの適応の難しさを記述している。
この問題は、ソースドメインからの外部知識がターゲットドメインのパフォーマンスに悪影響を及ぼす、負の転送のリスクを示す。
この課題に対応するために、我々は、新しいオンライン選択適応(OSAA)アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-25T07:17:47Z) - Unsupervised Domain Adaptation for Anatomical Landmark Detection [5.070344284426738]
非教師なし領域適応(UDA)の設定下での解剖学的ランドマーク検出のための新しい枠組みを提案する。
このフレームワークは、自己学習とドメインの敵対的学習を活用して、適応中のドメインギャップに対処する。
脳波および肺のランドマーク検出実験は,領域間隙を広いマージンで低減し,他のUDA法より一貫して優れる手法の有効性を示した。
論文 参考訳(メタデータ) (2023-08-25T10:22:13Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - AIR-DA: Adversarial Image Reconstruction for Unsupervised Domain
Adaptive Object Detection [28.22783703278792]
特徴抽出器の対角訓練を容易にするための正則化器としての適応画像再構成(AIR)
ドメインシフトに挑戦するいくつかのデータセットにまたがって評価を行った結果,提案手法が従来の手法よりも優れていたことが判明した。
論文 参考訳(メタデータ) (2023-03-27T16:51:51Z) - Decompose to Adapt: Cross-domain Object Detection via Feature
Disentanglement [79.2994130944482]
本研究では,DDF(Domain Disentanglement Faster-RCNN)を設計し,タスク学習のための特徴のソース固有情報を排除した。
DDF法は,グローバルトリプルト・ディアンタングルメント(GTD)モジュールとインスタンス類似性・ディアンタングルメント(ISD)モジュールを用いて,グローバルおよびローカルステージでの機能ディアンタングルを容易にする。
提案手法は,4つのUDAオブジェクト検出タスクにおいて最先端の手法より優れており,広い適用性で有効であることが実証された。
論文 参考訳(メタデータ) (2022-01-06T05:43:01Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Re-energizing Domain Discriminator with Sample Relabeling for
Adversarial Domain Adaptation [88.86865069583149]
Unsupervised Domain Adapt (UDA)メソッドは、ドメインの競合トレーニングを利用して、機能を調整してドメインのギャップを減らす。
本研究では,Re-enforceable Adversarial Domain Adaptation (RADA) と呼ばれる効率的な最適化戦略を提案する。
RADAは、動的ドメインラベルを使用して、トレーニング中にドメイン識別器を再活性化することを目指しています。
論文 参考訳(メタデータ) (2021-03-22T08:32:55Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。