論文の概要: Reducing Source-Private Bias in Extreme Universal Domain Adaptation
- arxiv url: http://arxiv.org/abs/2410.11271v1
- Date: Tue, 15 Oct 2024 04:51:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:01:39.484139
- Title: Reducing Source-Private Bias in Extreme Universal Domain Adaptation
- Title(参考訳): 極大ユニバーサルドメイン適応におけるソースプリベートバイアスの低減
- Authors: Hung-Chieh Fang, Po-Yi Lu, Hsuan-Tien Lin,
- Abstract要約: Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
- 参考スコア(独自算出の注目度): 11.875619863954238
- License:
- Abstract: Universal Domain Adaptation (UniDA) aims to transfer knowledge from a labeled source domain to an unlabeled target domain without assuming how much the label-sets of the two domains intersect. The goal of UniDA is to achieve robust performance on the target domain across different intersection levels. However, existing literature has not sufficiently explored performance under extreme intersection levels. Our experiments reveal that state-of-the-art methods struggle when the source domain has significantly more non-overlapping classes than overlapping ones, a setting we refer to as Extreme UniDA. In this paper, we demonstrate that classical partial domain alignment, which focuses on aligning only overlapping-class data between domains, is limited in mitigating the bias of feature extractors toward source-private classes in extreme UniDA scenarios. We argue that feature extractors trained with source supervised loss distort the intrinsic structure of the target data due to the inherent differences between source-private classes and the target data. To mitigate this bias, we propose using self-supervised learning to preserve the structure of the target data. Our approach can be easily integrated into existing frameworks. We apply the proposed approach to two distinct training paradigms-adversarial-based and optimal-transport-based-and show consistent improvements across various intersection levels, with significant gains in extreme UniDA settings.
- Abstract(参考訳): Universal Domain Adaptation (UniDA) は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送を、2つのドメインのラベルセットがどの程度交わるかを仮定せずに目的とする。
UniDAの目標は、異なる交差点レベルにわたるターゲットドメインで堅牢なパフォーマンスを達成することである。
しかし、既存の文献は、極端な交差レベル下では十分に調査されていない。
我々の実験では、ソースドメインが重なり合うクラスよりもはるかに非重複なクラスを持つ場合、最先端のメソッドが苦労していることが判明した。
本稿では,ドメイン間の重なり合うクラスデータのみの整合性に着目した古典的部分整合性を示す。
我々は,ソース管理損失で訓練された特徴抽出器が,ソースプライベートクラスとターゲットデータに固有の違いがあるため,対象データ固有の構造を歪めてしまうことを論じる。
このバイアスを軽減するために、ターゲットデータの構造を保存するために自己教師付き学習を提案する。
私たちのアプローチは、既存のフレームワークに簡単に統合できます。
提案手法は,2つの異なる訓練パラダイムと,最適トランスポートベースに応用し,様々な交差点レベルにおける一貫した改善を示すとともに,極端なUniDA設定において顕著な向上を示した。
関連論文リスト
- Universal Semi-Supervised Domain Adaptation by Mitigating Common-Class Bias [16.4249819402209]
我々はUniversal Semi-Supervised Domain Adaptation (UniSSDA)を紹介する。
UniSSDAはUniversal Domain Adaptation (UniDA)とSemi-Supervised Domain Adaptation (SSDA)の交差点にある
疑似ラベルによる共通クラスバイアスの強化を抑えるための,事前誘導型擬似ラベル改善戦略を提案する。
論文 参考訳(メタデータ) (2024-03-17T14:43:47Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Semi-supervised Domain Adaptation for Semantic Segmentation [3.946367634483361]
セマンティックセグメンテーションにおけるクロスドメインとイントラドメインのギャップに対処する2段階の半教師付き二重ドメイン適応(SSDDA)手法を提案する。
提案手法は,2つの共通合成-実合成セマンティックセグメンテーションベンチマークにおいて,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-20T16:13:00Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Joint Distribution Alignment via Adversarial Learning for Domain
Adaptive Object Detection [11.262560426527818]
教師なしのドメイン適応オブジェクト検出は、リッチラベル付きデータで訓練された元のソースドメインから、ラベルなしデータで新しいターゲットドメインに適応することを目的としている。
近年、主流のアプローチは、敵対的学習を通じてこのタスクを実行するが、それでも2つの制限に悩まされている。
上記の課題に対処するために,JADF(Joint Adaptive Detection framework)を提案する。
論文 参考訳(メタデータ) (2021-09-19T00:27:08Z) - CLDA: Contrastive Learning for Semi-Supervised Domain Adaptation [1.2691047660244335]
Unsupervised Domain Adaptation (UDA) は、ラベル付きソース分布とラベル付きターゲット分布との整合を目標とし、ドメイン不変な予測モデルを得る。
半教師付きドメイン適応(CLDA)のためのコントラスト学習フレームワークを提案する。
CLDAは上記のすべてのデータセットに対して最先端の結果を達成する。
論文 参考訳(メタデータ) (2021-06-30T20:23:19Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Discriminative Cross-Domain Feature Learning for Partial Domain
Adaptation [70.45936509510528]
部分的なドメイン適応は、より大きく多様なソースドメインからの知識を、より少ないクラス数でより小さなターゲットドメインに適応させることを目的としています。
ドメイン適応の最近の実践は、ターゲットドメインの擬似ラベルを組み込むことで、効果的な特徴を抽出する。
ターゲットデータを少数のソースデータのみにアライメントすることが不可欠である。
論文 参考訳(メタデータ) (2020-08-26T03:18:53Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。