論文の概要: Learning Target Domain Specific Classifier for Partial Domain Adaptation
- arxiv url: http://arxiv.org/abs/2008.10785v1
- Date: Tue, 25 Aug 2020 02:28:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 03:51:45.561232
- Title: Learning Target Domain Specific Classifier for Partial Domain Adaptation
- Title(参考訳): 部分領域適応のための学習対象領域特定分類器
- Authors: Chuan-Xian Ren, Pengfei Ge, Peiyi Yang, Shuicheng Yan
- Abstract要約: 非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
- 参考スコア(独自算出の注目度): 85.71584004185031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation~(UDA) aims at reducing the distribution
discrepancy when transferring knowledge from a labeled source domain to an
unlabeled target domain. Previous UDA methods assume that the source and target
domains share an identical label space, which is unrealistic in practice since
the label information of the target domain is agnostic. This paper focuses on a
more realistic UDA scenario, i.e. partial domain adaptation (PDA), where the
target label space is subsumed to the source label space. In the PDA scenario,
the source outliers that are absent in the target domain may be wrongly matched
to the target domain (technically named negative transfer), leading to
performance degradation of UDA methods. This paper proposes a novel Target
Domain Specific Classifier Learning-based Domain Adaptation (TSCDA) method.
TSCDA presents a soft-weighed maximum mean discrepancy criterion to partially
align feature distributions and alleviate negative transfer. Also, it learns a
target-specific classifier for the target domain with pseudo-labels and
multiple auxiliary classifiers, to further address classifier shift. A module
named Peers Assisted Learning is used to minimize the prediction difference
between multiple target-specific classifiers, which makes the classifiers more
discriminant for the target domain. Extensive experiments conducted on three
PDA benchmark datasets show that TSCDA outperforms other state-of-the-art
methods with a large margin, e.g. $4\%$ and $5.6\%$ averagely on Office-31 and
Office-Home, respectively.
- Abstract(参考訳): unsupervised domain adaptation~(uda)の目的は、ラベル付きソースドメインからラベルなしのターゲットドメインに知識を転送する際の分布の不一致を減らすことである。
従来のUDA手法では、ソースとターゲットドメインは同一のラベル空間を共有しており、実際にはターゲットドメインのラベル情報が非依存であるため、非現実的である。
本稿では、より現実的な UDA シナリオである部分的ドメイン適応(PDA)に焦点を当て、ターゲットラベル空間をソースラベル空間に仮定する。
PDAのシナリオでは、ターゲットドメインに存在しないソースのアウトレイラは、ターゲットドメイン(技術的に負の転送と呼ばれる)と誤って一致し、UDAメソッドのパフォーマンスが低下する。
本稿では,TSCDA(Target Domain Specific Classifier Learning-based Domain Adaptation)法を提案する。
TSCDAは、特徴分布を部分的に整合させ、負の移動を緩和するために、軟弱な最大誤差基準を示す。
また、擬似ラベルと複数の補助分類器を持つ対象ドメインのターゲット固有分類器を学習し、さらに分類器シフトに対処する。
Peers Assisted Learningという名前のモジュールは、複数のターゲット固有の分類器間の予測差を最小化するために使用され、それによって分類器はターゲットドメインに対してより差別的になる。
3つのpdaベンチマークデータセットで行った広範囲な実験により、tscdaはoffice-31とoffice-homeでそれぞれ$4\%$と$5.6\%$という大きなマージンで、他の最先端のメソッドよりも優れていた。
関連論文リスト
- Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Unsupervised domain adaptation via double classifiers based on high
confidence pseudo label [8.132250810529873]
Unsupervised Domain Adapt (UDA)は,ラベル付きソースドメインからラベル付きターゲットドメインへのナレッジ転送という問題を解決することを目的とする。
多くのドメイン適応(DA)メソッドは、Centroidを使って異なるドメインの局所分布を整列させ、異なるクラスを整列させる。
この研究は、異なるドメイン間のアライメントを再考し、異なるドメイン間の真のアライメントを達成する方法を研究する。
論文 参考訳(メタデータ) (2021-05-11T00:51:31Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Class Conditional Alignment for Partial Domain Adaptation [10.506584969668792]
アドリア適応モデルは、ラベル付きソースデータセットからラベルなしターゲットデータセットへの知識の転送に向けて大きな進歩を見せている。
PDAは、ソースドメインが広く多様なシナリオを調査し、ターゲットラベル空間はソースラベル空間のサブセットである。
PDAのためのマルチクラス対向アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-14T23:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。