論文の概要: Domain Adaptation with Auxiliary Target Domain-Oriented Classifier
- arxiv url: http://arxiv.org/abs/2007.04171v5
- Date: Thu, 16 Dec 2021 01:34:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 12:39:09.926718
- Title: Domain Adaptation with Auxiliary Target Domain-Oriented Classifier
- Title(参考訳): Auxiliary Target Domain-Oriented Classifierによるドメイン適応
- Authors: Jian Liang and Dapeng Hu and Jiashi Feng
- Abstract要約: ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
- 参考スコア(独自算出の注目度): 115.39091109079622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) aims to transfer knowledge from a label-rich but
heterogeneous domain to a label-scare domain, which alleviates the labeling
efforts and attracts considerable attention. Different from previous methods
focusing on learning domain-invariant feature representations, some recent
methods present generic semi-supervised learning (SSL) techniques and directly
apply them to DA tasks, even achieving competitive performance. One of the most
popular SSL techniques is pseudo-labeling that assigns pseudo labels for each
unlabeled data via the classifier trained by labeled data. However, it ignores
the distribution shift in DA problems and is inevitably biased to source data.
To address this issue, we propose a new pseudo-labeling framework called
Auxiliary Target Domain-Oriented Classifier (ATDOC). ATDOC alleviates the
classifier bias by introducing an auxiliary classifier for target data only, to
improve the quality of pseudo labels. Specifically, we employ the memory
mechanism and develop two types of non-parametric classifiers, i.e. the nearest
centroid classifier and neighborhood aggregation, without introducing any
additional network parameters. Despite its simplicity in a pseudo
classification objective, ATDOC with neighborhood aggregation significantly
outperforms domain alignment techniques and prior SSL techniques on a large
variety of DA benchmarks and even scare-labeled SSL tasks.
- Abstract(参考訳): ドメイン適応(da)は、知識をラベルリッチだが異種ドメインからラベルキャリアドメインに転送することを目的としており、ラベリング努力を軽減し、かなりの注目を集めている。
ドメイン不変の特徴表現の学習に焦点を当てた従来の手法とは異なり、最近の手法では、汎用的な半教師付き学習(SSL)技術を示し、DAタスクに直接適用し、競争性能を達成している。
最も一般的なSSLテクニックの1つは擬似ラベル付けであり、ラベル付きデータによって訓練された分類器を介してラベル付きデータごとに擬似ラベルを割り当てる。
しかしながら、da問題の分布シフトを無視し、必然的にソースデータに偏っている。
この問題に対処するため、Auxiliary Target Domain-Oriented Classifier (ATDOC) と呼ばれる新しい擬似ラベルフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入して分類器バイアスを緩和し、擬似ラベルの品質を向上させる。
具体的には、メモリ機構を用いて、ネットワークパラメータを追加せずに、最寄りのセントロイド分類器と近傍の集約という、2種類の非パラメトリック分類器を開発する。
擬似分類の目的において単純であるにもかかわらず、近隣アグリゲーションを持つATDOCは、様々なDAベンチマークでドメインアライメント技術や以前のSSL技術よりもはるかに優れている。
関連論文リスト
- Domain Adaptation Using Pseudo Labels [16.79672078512152]
ラベル付き対象データがない場合、教師なしのドメイン適応アプローチは、ソースとターゲットドメインの限界分布を整合させようとする。
我々は,複数段階の擬似ラベル修正手法を用いて,対象ドメインの正確なラベルを決定するために事前訓練ネットワークをデプロイする。
複数のデータセットに対する結果から, 複雑な最先端技術と比較して, 簡単な手順の有効性が示された。
論文 参考訳(メタデータ) (2024-02-09T22:15:11Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Cycle Label-Consistent Networks for Unsupervised Domain Adaptation [57.29464116557734]
ドメイン適応は、ラベル付きソースドメインを活用して、異なる分布を持つラベル付きターゲットドメインの分類子を学ぶことを目的としています。
本稿では,分類ラベルのサイクル整合性を利用して,シンプルで効率的な領域適応手法,すなわちCycle Label-Consistent Network (CLCN)を提案する。
MNIST-USPS-SVHN, Office-31, Office-Home, Image CLEF-DAベンチマークに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-05-27T13:09:08Z) - Progressively Select and Reject Pseudo-labelled Samples for Open-Set
Domain Adaptation [26.889303784575805]
ドメイン適応は、ラベル付きソースデータと未ラベルのターゲットデータを利用して、ターゲット領域の画像分類問題を解決する。
提案手法は,OSLPP(Open-Set Locality Preserving Projection)アルゴリズムを用いて,ソース領域とターゲット領域の識別的共通部分空間を学習する。
共通部分空間学習と擬似ラベル付きサンプル選択/拒絶は反復学習フレームワークにおいて互いに促進する。
論文 参考訳(メタデータ) (2021-10-25T04:28:55Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。