論文の概要: Your Classifier can Secretly Suffice Multi-Source Domain Adaptation
- arxiv url: http://arxiv.org/abs/2103.11169v1
- Date: Sat, 20 Mar 2021 12:44:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 13:06:23.630371
- Title: Your Classifier can Secretly Suffice Multi-Source Domain Adaptation
- Title(参考訳): 分類器は秘密裏にマルチソースドメイン適応を補うことができる
- Authors: Naveen Venkat, Jogendra Nath Kundu, Durgesh Kumar Singh, Ambareesh
Revanur, R. Venkatesh Babu
- Abstract要約: マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
- 参考スコア(独自算出の注目度): 72.47706604261992
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Multi-Source Domain Adaptation (MSDA) deals with the transfer of task
knowledge from multiple labeled source domains to an unlabeled target domain,
under a domain-shift. Existing methods aim to minimize this domain-shift using
auxiliary distribution alignment objectives. In this work, we present a
different perspective to MSDA wherein deep models are observed to implicitly
align the domains under label supervision. Thus, we aim to utilize implicit
alignment without additional training objectives to perform adaptation. To this
end, we use pseudo-labeled target samples and enforce a classifier agreement on
the pseudo-labels, a process called Self-supervised Implicit Alignment
(SImpAl). We find that SImpAl readily works even under category-shift among the
source domains. Further, we propose classifier agreement as a cue to determine
the training convergence, resulting in a simple training algorithm. We provide
a thorough evaluation of our approach on five benchmarks, along with detailed
insights into each component of our approach.
- Abstract(参考訳): マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインから未ラベルのターゲットドメインへのタスク知識の移行をドメインシフトの下で処理する。
既存の手法はこの領域シフトを補助分布アライメントの目的を用いて最小化することを目的としている。
本研究では,ラベル管理下のドメインを暗黙的に整列させる深層モデルについて,MSDAに対して異なる視点を示す。
そこで我々は,適応のために追加の訓練目的を使わずに暗黙のアライメントを活用することを目指している。
この目的のために、擬似ラベルを対象とするサンプルを用いて、擬似ラベルの分類契約(Self-supervised Implicit Alignment (SImpAl)と呼ばれるプロセス)を実施する。
SImpAlは、ソースドメイン間のカテゴリシフトでも容易に機能する。
さらに,学習収束を決定するための手がかりとして分類器合意を提案し,その結果,簡単な学習アルゴリズムが得られた。
5つのベンチマークでアプローチを徹底的に評価し、アプローチの各コンポーネントに関する詳細な洞察を提供します。
関連論文リスト
- Domain Adaptation Using Pseudo Labels [16.79672078512152]
ラベル付き対象データがない場合、教師なしのドメイン適応アプローチは、ソースとターゲットドメインの限界分布を整合させようとする。
我々は,複数段階の擬似ラベル修正手法を用いて,対象ドメインの正確なラベルを決定するために事前訓練ネットワークをデプロイする。
複数のデータセットに対する結果から, 複雑な最先端技術と比較して, 簡単な手順の有効性が示された。
論文 参考訳(メタデータ) (2024-02-09T22:15:11Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Curriculum Graph Co-Teaching for Multi-Target Domain Adaptation [78.28390172958643]
マルチターゲットドメイン適応(MTDA)における複数のドメインシフトを軽減するのに役立つ2つの重要な側面を同定する。
本論文では,二重分類器ヘッドを用いたCGCT(Curriculum Graph Co-Teaching)を提案する。そのうちの1つがグラフ畳み込みネットワーク(GCN)である。
ドメインラベルが利用可能になると、まずより簡単なターゲットドメインに適応し、続いて難しいドメインに適応する逐次適応戦略であるDomain-Aware Curriculum Learning (DCL)を提案する。
論文 参考訳(メタデータ) (2021-04-01T23:41:41Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。