論文の概要: Heterogeneous Domain Adaptation with Positive and Unlabeled Data
- arxiv url: http://arxiv.org/abs/2304.07955v1
- Date: Mon, 17 Apr 2023 02:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 16:33:05.137256
- Title: Heterogeneous Domain Adaptation with Positive and Unlabeled Data
- Title(参考訳): 正・無ラベルデータによる異種領域適応
- Authors: Junki Mori, Ryo Furukawa, Isamu Teranishi, Jun Sakuma
- Abstract要約: 本稿では, 正および未ラベル不均質領域適応 (PU-HDA) と呼ばれる新たな課題に対処する。
既存のHUDAとPU学習法の単純な組み合わせは、ソースとターゲットドメイン間のラベル分布のギャップのため、PU-HDAでは効果がない。
本稿では,ラベルのない対象データから潜在的正のサンプルを予測できる新しい手法,PADAを提案する。
- 参考スコア(独自算出の注目度): 14.461847761198035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Heterogeneous unsupervised domain adaptation (HUDA) is the most challenging
domain adaptation setting where the feature space differs between source and
target domains, and the target domain has only unlabeled data. Existing HUDA
methods assume that both positive and negative examples are available in the
source domain, which may not be satisfied in some real applications. This paper
addresses a new challenging setting called positive and unlabeled heterogeneous
domain adaptation (PU-HDA), a HUDA setting where the source domain only has
positives. PU-HDA can also be viewed as an extension of PU learning where the
positive and unlabeled examples are sampled from different domains. A naive
combination of existing HUDA and PU learning methods is ineffective in PU-HDA
due to the gap in label distribution between the source and target domains. To
overcome this issue, we propose a novel method, positive-adversarial domain
adaptation (PADA), which can predict likely positive examples from the
unlabeled target data and simultaneously align the feature spaces to reduce the
distribution divergence between the whole source data and the likely positive
target data. PADA achieves this by a unified adversarial training framework for
learning a classifier to predict positive examples and a feature transformer to
transform the target feature space to that of the source. Specifically, they
are both trained to fool a common discriminator that determines whether the
likely positive examples are from the target or source domain. We
experimentally show that PADA outperforms several baseline methods, such as the
naive combination of HUDA and PU learning.
- Abstract(参考訳): 不均質な非教師付きドメイン適応(HUDA)は、特徴空間がソースとターゲットドメインの間で異なる最も困難なドメイン適応設定であり、ターゲットドメインはラベルのないデータしか持たない。
既存のhudaメソッドは、ポジティブな例とネガティブな例の両方がソースドメインで利用可能であると仮定している。
本稿では,ソースドメインが正しか持たないhuda設定であるpu-hda(professional and unlabeled hetero domain adaptation)という,新たな挑戦的な設定について述べる。
pu-hdaは、ポジティブな例とラベルなしの例が異なるドメインからサンプルされる、pu learningの拡張と見なすこともできる。
既存のHUDAとPU学習法の単純な組み合わせは、ソースとターゲットドメイン間のラベル分布のギャップのため、PU-HDAでは効果がない。
この問題を解決するために,ラベルのない対象データから潜在的正のサンプルを予測し,特徴空間を同時に整列させて,ソースデータ全体と潜在的正の目標データとの分布ばらつきを低減する,新たな手法であるPADAを提案する。
PADAは、正の例を予測する分類器と、対象の特徴空間をソースのそれに変換する特徴変換器を学習するための、統一された対角訓練フレームワークによってこれを達成している。
具体的には、両者とも、おそらく肯定的な例がターゲットドメインかソースドメインかを決定する一般的な判別器を騙すように訓練されている。
PADAは,HUDAとPU学習の単純な組み合わせなど,いくつかの基本的手法よりも優れていることを示す。
関連論文リスト
- Learning Unbiased Transferability for Domain Adaptation by Uncertainty
Modeling [107.24387363079629]
ドメイン適応は、ラベル付けされたソースドメインからラベル付けされていない、あるいはラベル付けされていないが関連するターゲットドメインに知識を転送することを目的としています。
ソース内のアノテートされたデータの量とターゲットドメインとの間の不均衡のため、ターゲットの分布のみがソースドメインにアライメントされる。
本稿では,非暴力的非暴力的移動可能性推定プラグイン(UTEP)を提案し,非暴力的移動を最適化するDA法において,識別器の不確実性をモデル化する。
論文 参考訳(メタデータ) (2022-06-02T21:58:54Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Certainty Volume Prediction for Unsupervised Domain Adaptation [35.984559137218504]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベルなしのターゲットドメインデータを分類する問題を扱う。
特徴空間における多変量ガウス分布としての不確かさをモデル化する新しい不確実性対応領域適応構成を提案する。
提案したパイプラインを、挑戦的なUDAデータセットに基づいて評価し、最先端の結果を得る。
論文 参考訳(メタデータ) (2021-11-03T11:22:55Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Effective Label Propagation for Discriminative Semi-Supervised Domain
Adaptation [76.41664929948607]
半教師付き領域適応(SSDA)法は,大規模な画像分類タスクにおいて大きな可能性を示している。
本稿では、ドメイン間およびドメイン内セマンティック情報を効果的に伝達することにより、この問題に対処する新しい効果的な方法を提案する。
ソースコードと事前訓練されたモデルも間もなくリリースされる予定です。
論文 参考訳(メタデータ) (2020-12-04T14:28:19Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - A Balanced and Uncertainty-aware Approach for Partial Domain Adaptation [142.31610972922067]
この研究は、特にターゲットドメインのクラスラベルがソースドメインのサブセットである場合に、教師なしのドメイン適応問題に対処する。
本稿では,ドメイン逆境学習に基づく新しいドメイン適応手法 BA$3$US を提案し,BAA(Ba balanced Adversarial Alignment)とAUS(Adaptive Uncertainty Suppression)の2つの新しい手法を提案する。
複数のベンチマーク実験の結果、BA$3$USが部分的なドメイン適応タスクの最先端を超越していることが示されている。
論文 参考訳(メタデータ) (2020-03-05T11:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。