論文の概要: Hard Class Rectification for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2008.03455v2
- Date: Tue, 20 Apr 2021 00:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 09:12:18.222262
- Title: Hard Class Rectification for Domain Adaptation
- Title(参考訳): ドメイン適応のためのハードクラス整形
- Authors: Yunlong Zhang, Changxing Jing, Huangxing Lin, Chaoqi Chen, Yue Huang,
Xinghao Ding, Yang Zou
- Abstract要約: ドメイン適応(DA)は、ラベルリッチドメイン(ソースドメイン)からラベルケアドメイン(ターゲットドメイン)に知識を移すことを目的としている。
本稿では,HCRPL(Hard Class Rectification Pseudo-labeling)と呼ばれる新しいフレームワークを提案する。
提案手法は,非教師付きドメイン適応(UDA)と半教師付きドメイン適応(SSDA)の両方において評価される。
- 参考スコア(独自算出の注目度): 36.58361356407803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation (DA) aims to transfer knowledge from a label-rich and
related domain (source domain) to a label-scare domain (target domain).
Pseudo-labeling has recently been widely explored and used in DA. However, this
line of research is still confined to the inaccuracy of pseudo-labels. In this
paper, we reveal an interesting observation that the target samples belonging
to the classes with larger domain shift are easier to be misclassified compared
with the other classes. These classes are called hard class, which deteriorates
the performance of DA and restricts the applications of DA. We propose a novel
framework, called Hard Class Rectification Pseudo-labeling (HCRPL), to
alleviate the hard class problem from two aspects. First, as is difficult to
identify the target samples as hard class, we propose a simple yet effective
scheme, named Adaptive Prediction Calibration (APC), to calibrate the
predictions of the target samples according to the difficulty degree for each
class. Second, we further consider that the predictions of target samples
belonging to the hard class are vulnerable to perturbations. To prevent these
samples to be misclassified easily, we introduce Temporal-Ensembling (TE) and
Self-Ensembling (SE) to obtain consistent predictions. The proposed method is
evaluated in both unsupervised domain adaptation (UDA) and semi-supervised
domain adaptation (SSDA). The experimental results on several real-world
cross-domain benchmarks, including ImageCLEF, Office-31 and Office-Home,
substantiates the superiority of the proposed method.
- Abstract(参考訳): ドメイン適応(da)は、知識をラベルリッチな関連ドメイン(ソースドメイン)からラベルキャリアドメイン(ターゲットドメイン)に転送することを目的としている。
Pseudo-labelingは近年,DAで広く研究されている。
しかし、この研究はいまだに擬似ラベルの不正確さに限られている。
本稿では,ドメインシフトが大きいクラスに属するターゲットサンプルは,他のクラスに比べて誤分類しやすいという興味深い知見を示す。
これらのクラスはハードクラスと呼ばれ、DAのパフォーマンスを低下させ、DAの適用を制限する。
ハードクラス修正擬似ラベル(hcrpl, hard class rectification pseudo-labeling)と呼ばれる,ハードクラス問題を2つの側面から緩和するための新しいフレームワークを提案する。
まず, 対象サンプルをハードクラスとして識別することが困難であるため, 適応予測校正 (Adaptive Prediction Calibration, APC) と呼ばれる簡易かつ効果的な手法を提案し, 各分類の難易度に応じて, 対象サンプルの予測を校正する。
第2に,ハードクラスに属するターゲットサンプルの予測は摂動に対して脆弱であると考えられる。
これらのサンプルの誤分類を防止するため,時間センシング(te)と自己センシング(se)を導入し,一貫した予測を得る。
提案手法はunsupervised domain adaptation (uda) と semi-supervised domain adaptation (ssda) の両方で評価される。
ImageCLEF, Office-31, Office-Home などの実世界のクロスドメインベンチマーク実験の結果,提案手法の優位性を実証した。
関連論文リスト
- Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Ambiguity-Resistant Semi-Supervised Learning for Dense Object Detection [98.66771688028426]
本研究では,一段階検出器のためのAmbiguity-Resistant Semi-supervised Learning (ARSL)を提案する。
擬似ラベルの分類とローカライズ品質を定量化するために,JCE(Joint-Confidence Estimation)を提案する。
ARSLは、曖昧さを効果的に軽減し、MS COCOおよびPASCALVOC上で最先端のSSOD性能を達成する。
論文 参考訳(メタデータ) (2023-03-27T07:46:58Z) - Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment [58.56087979262192]
Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:55:02Z) - Domain Adaptation under Open Set Label Shift [39.424134505152544]
オープンセットラベルシフト(OSLS)におけるドメイン適応問題について紹介する。
OSLSはラベルシフトとポジティブアンラベル(PU)学習の下でドメイン適応を仮定する。
ブラックボックス予測器を利用する両方のタスクに対して,実用的な手法を提案する。
論文 参考訳(メタデータ) (2022-07-26T17:09:48Z) - Prototype-Guided Continual Adaptation for Class-Incremental Unsupervised
Domain Adaptation [76.01237757257864]
本稿では,CI-UDA(Class-Incremental Unsupervised Domain Adaptation)と呼ばれる新しい,実用的かつ困難な問題について検討する。
ラベル付けされたソースドメインにはすべてのクラスが含まれているが、ラベル付けされていないターゲットドメインのクラスは順次増加する。
本稿では,2つのソリューション戦略からなるPrototype-Guided Continual Adaptation (ProCA)法を提案する。
論文 参考訳(メタデータ) (2022-07-22T03:22:36Z) - Loss-based Sequential Learning for Active Domain Adaptation [14.366263836801485]
本稿では,ドメインタイプ(ソース/ターゲット)とラベルネス(ラベル付き/ラベルなし)の両方を考慮した逐次学習を導入する。
我々のモデルは、様々なベンチマークデータセットのベースラインモデルと同様に、従来の手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2022-04-25T14:00:04Z) - Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain
Adaptation [22.852237073492894]
Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
本稿では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン離散化(CGDM)手法を提案する。
対象サンプルの勾配信号を計算するために,クラスタリングに基づく自己教師型学習を通じて,対象の擬似ラベルを求める。
論文 参考訳(メタデータ) (2021-06-08T07:35:40Z) - Selective Pseudo-Labeling with Reinforcement Learning for
Semi-Supervised Domain Adaptation [116.48885692054724]
半教師付きドメイン適応のための強化学習に基づく選択擬似ラベル法を提案する。
高精度かつ代表的な擬似ラベルインスタンスを選択するための深層Q-ラーニングモデルを開発する。
提案手法は, SSDAのベンチマークデータセットを用いて評価し, 全ての比較手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-12-07T03:37:38Z) - A Balanced and Uncertainty-aware Approach for Partial Domain Adaptation [142.31610972922067]
この研究は、特にターゲットドメインのクラスラベルがソースドメインのサブセットである場合に、教師なしのドメイン適応問題に対処する。
本稿では,ドメイン逆境学習に基づく新しいドメイン適応手法 BA$3$US を提案し,BAA(Ba balanced Adversarial Alignment)とAUS(Adaptive Uncertainty Suppression)の2つの新しい手法を提案する。
複数のベンチマーク実験の結果、BA$3$USが部分的なドメイン適応タスクの最先端を超越していることが示されている。
論文 参考訳(メタデータ) (2020-03-05T11:37:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。