論文の概要: Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment
- arxiv url: http://arxiv.org/abs/2303.04393v1
- Date: Wed, 8 Mar 2023 05:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:02:05.038433
- Title: Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment
- Title(参考訳): 移動スレッショルド推定と漸進アライメントによる不均衡開集合領域適応
- Authors: Ru, Jinghan and Tian, Jun and Du, Zhekai and Xiao, Chengwei and Li,
Jingjing and Shen, Heng Tao
- Abstract要約: Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
- 参考スコア(独自算出の注目度): 9.422635717731776
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multimedia applications are often associated with cross-domain knowledge
transfer, where Unsupervised Domain Adaptation (UDA) can be used to reduce the
domain shifts. Open Set Domain Adaptation (OSDA) aims to transfer knowledge
from a well-labeled source domain to an unlabeled target domain under the
assumption that the target domain contains unknown classes. Existing OSDA
methods consistently lay stress on the covariate shift, ignoring the potential
label shift problem. The performance of OSDA methods degrades drastically under
intra-domain class imbalance and inter-domain label shift. However, little
attention has been paid to this issue in the community. In this paper, the
Imbalanced Open Set Domain Adaptation (IOSDA) is explored where the covariate
shift, label shift and category mismatch exist simultaneously. To alleviate the
negative effects raised by label shift in OSDA, we propose Open-set
Moving-threshold Estimation and Gradual Alignment (OMEGA) - a novel
architecture that improves existing OSDA methods on class-imbalanced data.
Specifically, a novel unknown-aware target clustering scheme is proposed to
form tight clusters in the target domain to reduce the negative effects of
label shift and intra-domain class imbalance. Furthermore, moving-threshold
estimation is designed to generate specific thresholds for each target sample
rather than using one for all. Extensive experiments on IOSDA, OSDA and OPDA
benchmarks demonstrate that our method could significantly outperform existing
state-of-the-arts. Code and data are available at
https://github.com/mendicant04/OMEGA.
- Abstract(参考訳): マルチメディアアプリケーションはドメイン間の知識伝達と関連付けられ、Unsupervised Domain Adaptation (UDA) はドメインシフトを減らすために使用できる。
Open Set Domain Adaptation (OSDA) は、対象ドメインが未知のクラスを含むという仮定のもと、よくラベル付けされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
既存のosda法は共変量シフトに一貫してストレスを与え、潜在的なラベルシフト問題を無視している。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
しかし、コミュニティではこの問題にはほとんど注意が払われていない。
本稿では,共変量シフト,ラベルシフト,カテゴリミスマッチを同時に有する不均衡開集合領域適応(iosda)について検討する。
OSDAにおけるラベルシフトによる負の効果を軽減するため、クラス不均衡データに対する既存のOSDAメソッドを改善する新しいアーキテクチャである、オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
具体的には、ラベルシフトとドメイン内クラス不均衡の負の効果を低減するために、ターゲットドメインに厳密なクラスタを形成する新しい未知のターゲットクラスタリング手法を提案する。
さらに、移動スレッショルド推定は、すべてのサンプルに使用するのではなく、対象サンプルごとに特定のしきい値を生成するように設計されている。
IOSDA, OSDA および OPDA ベンチマークの大規模な実験により,本手法が既存の最先端技術を大きく上回ることを示した。
コードとデータはhttps://github.com/mendicant04/OMEGAで公開されている。
関連論文リスト
- Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - centroIDA: Cross-Domain Class Discrepancy Minimization Based on
Accumulative Class-Centroids for Imbalanced Domain Adaptation [17.97306640457707]
IDA(centroIDA)の累積クラスセントロイドに基づくドメイン間差分最小化手法を提案する。
実験により,IDA問題,特にラベルシフトの程度が増大する中で,本手法が他のSOTA法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-21T10:35:32Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Domain Adaptation under Open Set Label Shift [39.424134505152544]
オープンセットラベルシフト(OSLS)におけるドメイン適応問題について紹介する。
OSLSはラベルシフトとポジティブアンラベル(PU)学習の下でドメイン適応を仮定する。
ブラックボックス予測器を利用する両方のタスクに対して,実用的な手法を提案する。
論文 参考訳(メタデータ) (2022-07-26T17:09:48Z) - Unsupervised Domain Adaptation with Progressive Adaptation of Subspaces [26.080102941802107]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインからの知識をドメインシフトで転送することで、ラベル付きターゲットドメインを分類することを目的としている。
そこで我々は,これらの直観を利用して,信頼性の高い擬似ラベルを徐々に取得する,プログレッシブ・アダプティブ・オブ・サブスペース・アプローチ (PAS) という新しいUDA手法を提案する。
我々の徹底的な評価は、PASが一般的なUDAに有効であるだけでなく、より挑戦的な部分的ドメイン適応(PDA)の状況において、最先端の技術を上回っていることを示している。
論文 参考訳(メタデータ) (2020-09-01T15:40:50Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - Domain Adaptive Semantic Segmentation Using Weak Labels [115.16029641181669]
本稿では,画像レベルの弱いラベルを持つセマンティックセグメンテーションにおけるドメイン適応のための新しいフレームワークを提案する。
ネットワークに特定のカテゴリへの参加を強制する弱いラベル分類モジュールを開発する。
実験では,UDAにおける既存の最先端技術に対する大幅な改善と,WDA設定における新たなベンチマークを示す。
論文 参考訳(メタデータ) (2020-07-30T01:33:57Z) - A Balanced and Uncertainty-aware Approach for Partial Domain Adaptation [142.31610972922067]
この研究は、特にターゲットドメインのクラスラベルがソースドメインのサブセットである場合に、教師なしのドメイン適応問題に対処する。
本稿では,ドメイン逆境学習に基づく新しいドメイン適応手法 BA$3$US を提案し,BAA(Ba balanced Adversarial Alignment)とAUS(Adaptive Uncertainty Suppression)の2つの新しい手法を提案する。
複数のベンチマーク実験の結果、BA$3$USが部分的なドメイン適応タスクの最先端を超越していることが示されている。
論文 参考訳(メタデータ) (2020-03-05T11:37:06Z) - Partially-Shared Variational Auto-encoders for Unsupervised Domain
Adaptation with Target Shift [11.873435088539459]
本稿では,教師なしドメイン適応(UDA)の目標シフトを考慮した新しいアプローチを提案する。
提案手法は部分共有変分オートエンコーダ (PS-VAE) であり, 特徴分布マッチングの代わりにペアワイズな特徴アライメントを用いる。
PS-VAEは、ラベル関連コンテンツを保存しながら、CycleGANベースのアーキテクチャで各サンプルの変換ドメインを相互変換する。
論文 参考訳(メタデータ) (2020-01-22T06:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。