論文の概要: Improving Pseudo Labels With Intra-Class Similarity for Unsupervised
Domain Adaptation
- arxiv url: http://arxiv.org/abs/2207.12139v1
- Date: Mon, 25 Jul 2022 12:42:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 13:49:45.758860
- Title: Improving Pseudo Labels With Intra-Class Similarity for Unsupervised
Domain Adaptation
- Title(参考訳): 教師なしドメイン適応のためのクラス内類似による擬似ラベルの改良
- Authors: Jie Wang, Xiao-Lei Zhang
- Abstract要約: 対象領域における擬似ラベルの精度を向上させるための新しい手法を提案する。
提案手法は、擬似ラベルの精度を高め、さらに識別性や領域不変性を高めることができる。
- 参考スコア(独自算出の注目度): 14.059958451082544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) transfers knowledge from a label-rich
source domain to a different but related fully-unlabeled target domain. To
address the problem of domain shift, more and more UDA methods adopt pseudo
labels of the target samples to improve the generalization ability on the
target domain. However, inaccurate pseudo labels of the target samples may
yield suboptimal performance with error accumulation during the optimization
process. Moreover, once the pseudo labels are generated, how to remedy the
generated pseudo labels is far from explored. In this paper, we propose a novel
approach to improve the accuracy of the pseudo labels in the target domain. It
first generates coarse pseudo labels by a conventional UDA method. Then, it
iteratively exploits the intra-class similarity of the target samples for
improving the generated coarse pseudo labels, and aligns the source and target
domains with the improved pseudo labels. The accuracy improvement of the pseudo
labels is made by first deleting dissimilar samples, and then using spanning
trees to eliminate the samples with the wrong pseudo labels in the intra-class
samples. We have applied the proposed approach to several conventional UDA
methods as an additional term. Experimental results demonstrate that the
proposed method can boost the accuracy of the pseudo labels and further lead to
more discriminative and domain invariant features than the conventional
baselines.
- Abstract(参考訳): 教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル豊富なソースドメインから、異なるが関連する完全にラベル付けされたターゲットドメインに知識を転送する。
ドメインシフトの問題を解決するため、より多くのudaメソッドがターゲットサンプルの擬似ラベルを採用し、ターゲットドメインの一般化能力を向上させる。
しかし, 対象試料の不正確な擬似ラベルは, 最適化過程中に誤差の蓄積を伴う準最適性能が得られる可能性がある。
さらに、擬似ラベルが生成されると、生成した擬似ラベルをどう治療するかは明らかになっていない。
本稿では,対象領域における擬似ラベルの精度を向上させるための新しい手法を提案する。
従来のUDA法により,まず粗い擬似ラベルを生成する。
そして、生成された粗い擬似ラベルを改善するために、ターゲットサンプルのクラス内類似性を反復的に利用し、改良された擬似ラベルとソースおよびターゲットドメインを整列させる。
擬似ラベルの精度向上は、まず異種サンプルを削除し、次にスパンニングツリーを使用して、クラス内サンプルの間違った擬似ラベルでサンプルを除去することによって行われる。
提案手法をいくつかの従来の UDA 手法に追加用語として適用した。
実験により,提案手法により擬似ラベルの精度が向上し,従来のベースラインよりも識別性や領域不変性が向上することが示された。
関連論文リスト
- Domain Adaptation Using Pseudo Labels [16.79672078512152]
ラベル付き対象データがない場合、教師なしのドメイン適応アプローチは、ソースとターゲットドメインの限界分布を整合させようとする。
我々は,複数段階の擬似ラベル修正手法を用いて,対象ドメインの正確なラベルを決定するために事前訓練ネットワークをデプロイする。
複数のデータセットに対する結果から, 複雑な最先端技術と比較して, 簡単な手順の有効性が示された。
論文 参考訳(メタデータ) (2024-02-09T22:15:11Z) - Adaptive Betweenness Clustering for Semi-Supervised Domain Adaptation [108.40945109477886]
分類領域アライメントを実現するために,G-ABC (Adaptive Betweenness Clustering) と呼ばれる新しいSSDA手法を提案する。
提案手法は従来のSSDA手法よりも優れており,提案したG-ABCアルゴリズムの優位性を示している。
論文 参考訳(メタデータ) (2024-01-21T09:57:56Z) - Refined Pseudo labeling for Source-free Domain Adaptive Object Detection [9.705172026751294]
ソースフリーDは、未ラベルのターゲットデータのみを用いて、ソーストレーニングされた検出器をターゲット領域に適応させる。
既存のソースフリーD手法は、通常擬似ラベリングを利用しており、性能は信頼しきい値の選択に大きく依存している。
本稿では,各カテゴリに対して適切な閾値を適応的に提供する適応しきい値推定モジュールを提案する。
論文 参考訳(メタデータ) (2023-03-07T08:31:42Z) - Semi-Supervised Domain Adaptation by Similarity based Pseudo-label
Injection [0.735996217853436]
半教師付きドメイン適応(SSDA)の主な課題の1つは、ラベル付きソースの数とターゲットサンプルのスキュード比である。
SSDAの最近の研究は、ラベル付き対象サンプルとソースサンプルのみを整列させることで、ターゲットドメインとソースドメインの整列が不完全な可能性があることを示している。
提案手法では,2つのドメインを整合させるために,コントラスト的損失を利用して意味論的かつドメインに依存しない特徴空間を学習する。
論文 参考訳(メタデータ) (2022-09-05T10:28:08Z) - CA-UDA: Class-Aware Unsupervised Domain Adaptation with Optimal
Assignment and Pseudo-Label Refinement [84.10513481953583]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ターゲットデータに欠けているラベルのサロゲートとして、優れた擬似ラベルの選択に焦点を当てる。
ソースとターゲットドメインの共有ネットワークが通常、擬似ラベルの選択に使用されるため、擬似ラベルを劣化させるソースドメインバイアスは依然として存在する。
本稿では, 擬似ラベルの品質向上のためのCA-UDAを提案し, 最適課題, 擬似ラベル改善戦略, クラス対応ドメインアライメントを提案する。
論文 参考訳(メタデータ) (2022-05-26T18:45:04Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - Rethinking Pseudo Labels for Semi-Supervised Object Detection [84.697097472401]
物体検出に適した確実な擬似ラベルを導入する。
我々は,クラス不均衡問題を緩和するために,各カテゴリの擬似ラベルと再重み付き損失関数を生成するために使用する閾値を動的に調整する。
提案手法では,COCOのラベル付きデータのみを用いて,教師付きベースラインを最大10%改善する。
論文 参考訳(メタデータ) (2021-06-01T01:32:03Z) - Cycle Self-Training for Domain Adaptation [85.14659717421533]
Cycle Self-Training (CST) は、ドメイン間の一般化に擬似ラベルを強制する、原則付き自己学習アルゴリズムである。
CSTは目標の真理を回復し、不変の機能学習とバニラ自己訓練の両方が失敗する。
実験結果から,標準的なUDAベンチマークでは,CSTは先行技術よりも大幅に改善されていることが示唆された。
論文 参考訳(メタデータ) (2021-03-05T10:04:25Z) - Domain Adaptation with Auxiliary Target Domain-Oriented Classifier [115.39091109079622]
ドメイン適応は、知識をラベルリッチだが異質なドメインからラベルケアドメインに転送することを目的としている。
最も一般的なSSLテクニックの1つは、ラベルのない各データに擬似ラベルを割り当てる擬似ラベル付けである。
我々はAuxiliary Target Domain-Oriented (ATDOC) と呼ばれる新しい擬似ラベリングフレームワークを提案する。
ATDOCは、ターゲットデータのみのための補助分類器を導入してバイアスを軽減し、擬似ラベルの品質を向上させる。
論文 参考訳(メタデータ) (2020-07-08T15:01:35Z) - Sparsely-Labeled Source Assisted Domain Adaptation [64.75698236688729]
本稿では,Sparsely-Labeled Source Assisted Domain Adaptation (SLSA-DA)アルゴリズムを提案する。
ラベル不足の問題により、ソースドメインとターゲットドメインの両方で投影されたクラスタリングが行われる。
論文 参考訳(メタデータ) (2020-05-08T15:37:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。