論文の概要: Universal Semi-Supervised Domain Adaptation by Mitigating Common-Class Bias
- arxiv url: http://arxiv.org/abs/2403.11234v1
- Date: Sun, 17 Mar 2024 14:43:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 17:46:37.510627
- Title: Universal Semi-Supervised Domain Adaptation by Mitigating Common-Class Bias
- Title(参考訳): 共通クラスバイアスの緩和によるユニバーサル半スーパービジョンドメイン適応
- Authors: Wenyu Zhang, Qingmu Liu, Felix Ong Wei Cong, Mohamed Ragab, Chuan-Sheng Foo,
- Abstract要約: 我々はUniversal Semi-Supervised Domain Adaptation (UniSSDA)を紹介する。
UniSSDAはUniversal Domain Adaptation (UniDA)とSemi-Supervised Domain Adaptation (SSDA)の交差点にある
疑似ラベルによる共通クラスバイアスの強化を抑えるための,事前誘導型擬似ラベル改善戦略を提案する。
- 参考スコア(独自算出の注目度): 16.4249819402209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation is a critical task in machine learning that aims to improve model performance on a target domain by leveraging knowledge from a related source domain. In this work, we introduce Universal Semi-Supervised Domain Adaptation (UniSSDA), a practical yet challenging setting where the target domain is partially labeled, and the source and target label space may not strictly match. UniSSDA is at the intersection of Universal Domain Adaptation (UniDA) and Semi-Supervised Domain Adaptation (SSDA): the UniDA setting does not allow for fine-grained categorization of target private classes not represented in the source domain, while SSDA focuses on the restricted closed-set setting where source and target label spaces match exactly. Existing UniDA and SSDA methods are susceptible to common-class bias in UniSSDA settings, where models overfit to data distributions of classes common to both domains at the expense of private classes. We propose a new prior-guided pseudo-label refinement strategy to reduce the reinforcement of common-class bias due to pseudo-labeling, a common label propagation strategy in domain adaptation. We demonstrate the effectiveness of the proposed strategy on benchmark datasets Office-Home, DomainNet, and VisDA. The proposed strategy attains the best performance across UniSSDA adaptation settings and establishes a new baseline for UniSSDA.
- Abstract(参考訳): ドメイン適応は、機械学習において重要なタスクであり、関連するソースドメインからの知識を活用することによって、ターゲットドメインのモデルパフォーマンスを改善することを目的としています。
本稿では,Universal Semi-Supervised Domain Adaptation (UniSSDA)を紹介した。
UniSSDAはUniversal Domain Adaptation (UniDA)とSemi-Supervised Domain Adaptation (SSDA)の交差点にある: UniDA設定では、ソースドメインに表現されていないターゲットプライベートクラスのきめ細かい分類ができない。
既存のUniDAおよびSSDAメソッドは、UniSSDA設定における共通クラスバイアスの影響を受けやすい。
本稿では,ドメイン適応における共通ラベル伝搬戦略である擬似ラベル化による共通クラスバイアスの強化を抑えるための,事前誘導型擬似ラベル改善戦略を提案する。
提案手法の有効性を,Office-Home,DomainNet,VisDAのベンチマークデータセットに示す。
提案した戦略は、UniSSDA適応設定で最高のパフォーマンスを獲得し、UniSSDAの新しいベースラインを確立する。
関連論文リスト
- Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Inter-Domain Mixup for Semi-Supervised Domain Adaptation [108.40945109477886]
半教師付きドメイン適応(SSDA)は、ソースとターゲットのドメイン分布をブリッジすることを目的としており、少数のターゲットラベルが利用可能である。
既存のSSDAの作業は、ソースドメインとターゲットドメインの両方からラベル情報をフル活用して、ドメイン間の機能アライメントに失敗する。
本稿では,新しいSSDA手法であるIDMNE(Inter-domain Mixup with Neighborhood Expansion)を提案する。
論文 参考訳(メタデータ) (2024-01-21T10:20:46Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Unified Optimal Transport Framework for Universal Domain Adaptation [27.860165056943796]
Universal Domain Adaptation (UniDA) は、ソースドメインからターゲットドメインに、ラベルセットに制約を加えることなく知識を転送することを目的としている。
既存のほとんどの手法では、共通サンプルを検出するために手動で指定または手動のしきい値を必要とする。
我々は、これらの問題を統一されたフレームワーク、すなわちUniOTで処理するために、最適なトランスポート(OT)を提案する。
論文 参考訳(メタデータ) (2022-10-31T05:07:09Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。