論文の概要: Semi-Supervised Domain Adaptation by Similarity based Pseudo-label
Injection
- arxiv url: http://arxiv.org/abs/2209.01881v1
- Date: Mon, 5 Sep 2022 10:28:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 14:09:56.530583
- Title: Semi-Supervised Domain Adaptation by Similarity based Pseudo-label
Injection
- Title(参考訳): 類似性に基づく擬似ラベル注入による半教師付きドメイン適応
- Authors: Abhay Rawat, Isha Dua, Saurav Gupta and Rahul Tallamraju
- Abstract要約: 半教師付きドメイン適応(SSDA)の主な課題の1つは、ラベル付きソースの数とターゲットサンプルのスキュード比である。
SSDAの最近の研究は、ラベル付き対象サンプルとソースサンプルのみを整列させることで、ターゲットドメインとソースドメインの整列が不完全な可能性があることを示している。
提案手法では,2つのドメインを整合させるために,コントラスト的損失を利用して意味論的かつドメインに依存しない特徴空間を学習する。
- 参考スコア(独自算出の注目度): 0.735996217853436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the primary challenges in Semi-supervised Domain Adaptation (SSDA) is
the skewed ratio between the number of labeled source and target samples,
causing the model to be biased towards the source domain. Recent works in SSDA
show that aligning only the labeled target samples with the source samples
potentially leads to incomplete domain alignment of the target domain to the
source domain. In our approach, to align the two domains, we leverage
contrastive losses to learn a semantically meaningful and a domain agnostic
feature space using the supervised samples from both domains. To mitigate
challenges caused by the skewed label ratio, we pseudo-label the unlabeled
target samples by comparing their feature representation to those of the
labeled samples from both the source and target domains. Furthermore, to
increase the support of the target domain, these potentially noisy
pseudo-labels are gradually injected into the labeled target dataset over the
course of training. Specifically, we use a temperature scaled cosine similarity
measure to assign a soft pseudo-label to the unlabeled target samples.
Additionally, we compute an exponential moving average of the soft
pseudo-labels for each unlabeled sample. These pseudo-labels are progressively
injected or removed) into the (from) the labeled target dataset based on a
confidence threshold to supplement the alignment of the source and target
distributions. Finally, we use a supervised contrastive loss on the labeled and
pseudo-labeled datasets to align the source and target distributions. Using our
proposed approach, we showcase state-of-the-art performance on SSDA benchmarks
- Office-Home, DomainNet and Office-31.
- Abstract(参考訳): 半教師付きドメイン適応(SSDA)における主な課題の1つは、ラベル付きソース数とターゲットサンプル数のスキュード比であり、モデルがソースドメインに偏っていることである。
ssdaの最近の研究によると、ラベル付きターゲットサンプルのみをソースサンプルにアライメントすることは、ターゲットドメインをソースドメインに不完全なドメインアライメントに導く可能性がある。
提案手法では,2つのドメインを整合させるために,両ドメインの教師付きサンプルを用いて意味論的かつドメインに依存しない特徴空間を学習する。
ラベル比のゆがみによる課題を軽減するために,これらの特徴表現をソース領域とターゲット領域の両方のラベル付きサンプルと比較することにより,ラベルなしのターゲットサンプルを擬似ラベル化する。
さらに、ターゲットドメインのサポートを増やすために、トレーニング中にラベル付きターゲットデータセットに、潜在的にノイズの多い擬似ラベルを徐々に注入する。
具体的には, 温度スケールしたコサイン類似度尺度を用いて, 軟質擬似ラベルを対象試料に割り当てる。
さらに,各非ラベル標本に対するソフト擬似ラベルの指数的移動平均を計算する。
これらの擬似ラベルは、ソースとターゲット分布のアライメントを補完する信頼しきい値に基づいてラベル付きターゲットデータセット(から)に徐々に注入または除去される。
最後に、ラベル付きおよび擬似ラベル付きデータセットの教師付きコントラスト損失を用いて、ソースとターゲットの分布を整列する。
提案手法を用いて,SSDAベンチマーク(Office-Home,DomainNet,Office-31)の最先端性能を示す。
関連論文リスト
- Evidential Graph Contrastive Alignment for Source-Free Blending-Target Domain Adaptation [3.0134158269410207]
混合対象ドメインを分離し,ノイズのあるターゲットの擬似ラベルから効果を緩和する,Evidential Contrastive Alignment (ECA) と呼ばれる新しい手法を提案する。
ECAは、他のメソッドをかなり上回り、以前のドメインラベルやソースデータと比較すると、同等の結果を得る。
論文 参考訳(メタデータ) (2024-08-14T13:02:20Z) - Domain Adaptation Using Pseudo Labels [16.79672078512152]
ラベル付き対象データがない場合、教師なしのドメイン適応アプローチは、ソースとターゲットドメインの限界分布を整合させようとする。
我々は,複数段階の擬似ラベル修正手法を用いて,対象ドメインの正確なラベルを決定するために事前訓練ネットワークをデプロイする。
複数のデータセットに対する結果から, 複雑な最先端技術と比較して, 簡単な手順の有効性が示された。
論文 参考訳(メタデータ) (2024-02-09T22:15:11Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - Improving Pseudo Labels With Intra-Class Similarity for Unsupervised
Domain Adaptation [14.059958451082544]
対象領域における擬似ラベルの精度を向上させるための新しい手法を提案する。
提案手法は、擬似ラベルの精度を高め、さらに識別性や領域不変性を高めることができる。
論文 参考訳(メタデータ) (2022-07-25T12:42:24Z) - Cycle Label-Consistent Networks for Unsupervised Domain Adaptation [57.29464116557734]
ドメイン適応は、ラベル付きソースドメインを活用して、異なる分布を持つラベル付きターゲットドメインの分類子を学ぶことを目的としています。
本稿では,分類ラベルのサイクル整合性を利用して,シンプルで効率的な領域適応手法,すなわちCycle Label-Consistent Network (CLCN)を提案する。
MNIST-USPS-SVHN, Office-31, Office-Home, Image CLEF-DAベンチマークに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-05-27T13:09:08Z) - CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement [84.10513481953583]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
論文 参考訳(メタデータ) (2022-05-26T18:45:04Z) - Cross-Domain Adaptive Clustering for Semi-Supervised Domain Adaptation [85.6961770631173]
半監視されたドメイン適応では、残りのターゲットサンプルのターゲットドメインガイド機能内のクラスごとのいくつかのラベル付きサンプルが、その周辺に集約される。
この問題に対処するために,クロスドメイン適応クラスタリングという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-04-19T16:07:32Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。