論文の概要: CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement
- arxiv url: http://arxiv.org/abs/2205.13579v2
- Date: Mon, 30 May 2022 11:40:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 11:40:05.732794
- Title: CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement
- Title(参考訳): CA-UDA: 最適アサインメントと擬似ラベルリファインメントによる教師なしドメイン適応
- Authors: Can Zhang, Gim Hee Lee
- Abstract要約: 教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
- 参考スコア(独自算出の注目度): 84.10513481953583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works on unsupervised domain adaptation (UDA) focus on the selection
of good pseudo-labels as surrogates for the missing labels in the target data.
However, source domain bias that deteriorates the pseudo-labels can still exist
since the shared network of the source and target domains are typically used
for the pseudo-label selections. The suboptimal feature space source-to-target
domain alignment can also result in unsatisfactory performance. In this paper,
we propose CA-UDA to improve the quality of the pseudo-labels and UDA results
with optimal assignment, a pseudo-label refinement strategy and class-aware
domain alignment. We use an auxiliary network to mitigate the source domain
bias for pseudo-label refinement. Our intuition is that the underlying
semantics in the target domain can be fully exploited to help refine the
pseudo-labels that are inferred from the source features under domain shift.
Furthermore, our optimal assignment can optimally align features in the
source-to-target domains and our class-aware domain alignment can
simultaneously close the domain gap while preserving the classification
decision boundaries. Extensive experiments on several benchmark datasets show
that our method can achieve state-of-the-art performance in the image
classification task.
- Abstract(参考訳): 教師なしドメイン適応(UDA)に関する最近の研究は、対象データ中の不足ラベルのサロゲートとして優れた擬似ラベルの選択に焦点を当てている。
しかし、ソースとターゲットドメインの共有ネットワークが典型的には擬似ラベル選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
準最適特徴空間のソースからターゲットへのドメインアライメントもまた、不十分なパフォーマンスをもたらす可能性がある。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
我々は疑似ラベル改良のためのソース領域バイアスを軽減するために補助ネットワークを用いる。
私たちの直感は、ターゲットドメインの根底にあるセマンティクスが、ドメインシフト中のソース機能から推測される擬似ラベルを洗練するのに役立ちます。
さらに、最適な割り当ては、ソース・ツー・ターゲットドメインの機能を最適に調整でき、クラス・アウェアなドメインアライメントは、分類決定境界を維持しながら、同時にドメイン間隙を閉じることができる。
いくつかのベンチマークデータセットの大規模な実験により,画像分類タスクにおいて,我々の手法が最先端の性能を達成できることが示されている。
関連論文リスト
- Deep Feature Registration for Unsupervised Domain Adaptation [15.246480756974963]
本稿では,ドメイン不変性を維持する登録機能を生成するためのDFRモデルを提案する。
また,対象ドメインにおける擬似ラベルの品質向上のために,擬似ラベル改質プロセスも採用している。
論文 参考訳(メタデータ) (2023-10-24T18:04:53Z) - DomainInv: Domain Invariant Fine Tuning and Adversarial Label Correction
For QA Domain Adaptation [27.661609140918916]
既存の質問回答システム(QA)は、目に見えない領域やドメイン外分布からの質問に答える能力によって制限される。
最も重要なことは、既存のQAドメイン適応手法は、合成データを生成するか、ターゲットのドメインデータに擬似ラベルを付けたものである。
本稿では,未ラベル対象領域に対する教師なし領域適応を,ソースドメインの監督を引き続き用いながら,ソースドメイン近傍のターゲット表現を転送することで提案する。
論文 参考訳(メタデータ) (2023-05-04T18:13:17Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。