論文の概要: Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2309.12742v2
- Date: Mon, 4 Dec 2023 03:15:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 22:06:56.179757
- Title: Make the U in UDA Matter: Invariant Consistency Learning for
Unsupervised Domain Adaptation
- Title(参考訳): UDAにおけるUを作る: 教師なしドメイン適応のための不変一貫性学習
- Authors: Zhongqi Yue, Hanwang Zhang, Qianru Sun
- Abstract要約: ICON (Invariant Consistency Learning) の略。
我々は2つの領域に等しくの地位を与えることで、教師なしDAのUを作成することを提案する。
ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを実現し、挑戦的な WILDS 2.0 ベンチマークでは従来の方法よりも優れています。
- 参考スコア(独自算出の注目度): 86.61336696914447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain Adaptation (DA) is always challenged by the spurious correlation
between domain-invariant features (e.g., class identity) and domain-specific
features (e.g., environment) that does not generalize to the target domain.
Unfortunately, even enriched with additional unsupervised target domains,
existing Unsupervised DA (UDA) methods still suffer from it. This is because
the source domain supervision only considers the target domain samples as
auxiliary data (e.g., by pseudo-labeling), yet the inherent distribution in the
target domain -- where the valuable de-correlation clues hide -- is
disregarded. We propose to make the U in UDA matter by giving equal status to
the two domains. Specifically, we learn an invariant classifier whose
prediction is simultaneously consistent with the labels in the source domain
and clusters in the target domain, hence the spurious correlation inconsistent
in the target domain is removed. We dub our approach "Invariant CONsistency
learning" (ICON). Extensive experiments show that ICON achieves the
state-of-the-art performance on the classic UDA benchmarks: Office-Home and
VisDA-2017, and outperforms all the conventional methods on the challenging
WILDS 2.0 benchmark. Codes are in https://github.com/yue-zhongqi/ICON.
- Abstract(参考訳): ドメイン適応(da)は常に、対象ドメインに一般化しないドメイン不変特徴(例えば、クラスid)とドメイン固有特徴(例えば、環境)との散発的な相関によって挑戦される。
残念ながら、教師なしのターゲットドメインが加わったとしても、既存の教師なしDA(Unsupervised DA)メソッドはそれに苦しむ。
これは、ソースドメインの監督がターゲットドメインのサンプルを補助データ(例:擬似ラベル付け)としてのみ考慮しているが、ターゲットドメインの固有の分布 -- 重要なデコリレーションの手がかりが隠されている -- は無視されているためである。
2つのドメインに等しい地位を与えることで、UDAにおけるUの実現を提案する。
具体的には、ソースドメイン内のラベルとターゲットドメイン内のクラスタとの同時一致を予測した不変な分類器を学習し、ターゲットドメイン内の急激な相関を除去する。
不変一貫性学習(invariant consistency learning, icon)と呼ぶ。
大規模な実験により、ICON は古典的な UDA ベンチマークである Office-Home と VisDA-2017 で最先端のパフォーマンスを達成し、挑戦的な WILDS 2.0 ベンチマークで従来の手法を上回ります。
コードはhttps://github.com/yue-zhongqi/ICON。
関連論文リスト
- Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Making the Best of Both Worlds: A Domain-Oriented Transformer for
Unsupervised Domain Adaptation [31.150256154504696]
Unsupervised Domain Adaptation (UDA)は、限られた実験データセットから現実の制約のないドメインへのディープラーニングの展開を促進する。
ほとんどのUDAアプローチは、共通の埋め込み空間内の機能を整列させ、ターゲット予測に共有分類器を適用する。
本稿では,異なる領域に着目した2つの個別空間における特徴アライメントを同時に実施し,各領域に対してドメイン指向の分類器を作成することを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:38:37Z) - Connect, Not Collapse: Explaining Contrastive Learning for Unsupervised
Domain Adaptation [88.5448806952394]
我々は、対象ドメインのラベル付きデータと対象ドメインのラベルなしデータを用いて、対象ドメインの分類器を学習する、教師なしドメイン適応(UDA)を考える。
ラベル付きソースとターゲットデータの特徴を学習し,ラベル付きソースデータに微調整を行うコントラスト事前学習は,強いUDA手法と競合することを示す。
論文 参考訳(メタデータ) (2022-04-01T16:56:26Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Unsupervised Domain Expansion for Visual Categorization [12.427064803221729]
Unsupervised Domain expansion (UDE)は、モデルのパフォーマンスをソースドメインで維持しながら、ラベルのないデータでターゲットドメインのディープモデルを適用することを目的としています。
我々は知識蒸留に基づく学習機構を開発し、kddeはソース領域とターゲット領域が等しく扱われる単一の目的を最適化できる。
論文 参考訳(メタデータ) (2021-04-01T03:27:35Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。