論文の概要: CASUAL: Conditional Support Alignment for Domain Adaptation with Label Shift
- arxiv url: http://arxiv.org/abs/2305.18458v2
- Date: Sun, 29 Dec 2024 21:24:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:00:31.469395
- Title: CASUAL: Conditional Support Alignment for Domain Adaptation with Label Shift
- Title(参考訳): CASUAL:ラベルシフトによるドメイン適応のための条件付きサポートアライメント
- Authors: Anh T Nguyen, Lam Tran, Anh Tong, Tuan-Duy H. Nguyen, Toan Tran,
- Abstract要約: 教師なしドメイン適応(Unsupervised domain adapt, UDA)とは、ソースドメインのラベル付きサンプルとターゲットドメインのラベルなしサンプルに基づいて学習モデルをトレーニングするドメイン適応フレームワークである。
そこで本稿では,条件付き適応型Support alignment (CASUAL) を提案する。
- 参考スコア(独自算出の注目度): 9.2929174544214
- License:
- Abstract: Unsupervised domain adaptation (UDA) refers to a domain adaptation framework in which a learning model is trained based on the labeled samples on the source domain and unlabeled ones in the target domain. The dominant existing methods in the field that rely on the classical covariate shift assumption to learn domain-invariant feature representation have yielded suboptimal performance under label distribution shift. In this paper, we propose a novel Conditional Adversarial SUpport ALignment (CASUAL) whose aim is to minimize the conditional symmetric support divergence between the source's and target domain's feature representation distributions, aiming at a more discriminative representation for the classification task. We also introduce a novel theoretical target risk bound, which justifies the merits of aligning the supports of conditional feature distributions compared to the existing marginal support alignment approach in the UDA settings. We then provide a complete training process for learning in which the objective optimization functions are precisely based on the proposed target risk bound. Our empirical results demonstrate that CASUAL outperforms other state-of-the-art methods on different UDA benchmark tasks under different label shift conditions.
- Abstract(参考訳): 教師なしドメイン適応(Unsupervised domain adapt, UDA)とは、ソースドメインのラベル付きサンプルとターゲットドメインのラベルなしサンプルに基づいて学習モデルをトレーニングするドメイン適応フレームワークである。
古典的共変量シフトの仮定に頼ってドメイン不変な特徴表現を学習する分野における支配的な既存手法は、ラベル分布シフトの下で準最適性能をもたらす。
本稿では,対象領域の特徴表現分布とソース領域の特徴表現分布との条件対称的相違を最小限に抑えることを目的とした,新しい条件適応型Support alignment(CASUAL)を提案する。
また、UDA設定における既存の限界的サポートアライメントアプローチと比較して条件付き特徴分布の支持を整合させる利点を正当化する新たな理論的ターゲットリスクバウンドを導入する。
次に、目的最適化関数が提案した目標リスク境界に基づいて正確に設定された学習のための完全なトレーニングプロセスを提供する。
実験の結果、CASUALは異なるラベルシフト条件下で異なるUDAベンチマークタスクにおいて、他の最先端手法よりも優れていることが示された。
関連論文リスト
- Self-training through Classifier Disagreement for Cross-Domain Opinion
Target Extraction [62.41511766918932]
オピニオンターゲット抽出(OTE)またはアスペクト抽出(AE)は意見マイニングの基本的な課題である。
最近の研究は、現実世界のシナリオでよく見られるクロスドメインのOTEに焦点を当てている。
そこで本稿では,ドメイン固有の教師と学生のネットワークから出力されるモデルが未学習のターゲットデータと一致しない対象サンプルを選択するためのSSLアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:31:17Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Attention-based Cross-Layer Domain Alignment for Unsupervised Domain
Adaptation [14.65316832227658]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから伝達可能な知識を学び、トレーニングされたモデルをラベルなしターゲットドメインに適応させることを目的としている。
1つの一般的な戦略は、ディープモデルによって抽出されたセマンティックな特徴を整合させることで、分布の相違を最小限にすることである。
論文 参考訳(メタデータ) (2022-02-27T08:36:12Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Target Consistency for Domain Adaptation: when Robustness meets
Transferability [8.189696720657247]
学習不変表現(Learning Invariant Representations)は、ソースとUnsupervised Domain Adaptationのターゲットドメインの調整に成功している。
ソースドメインに保持されているにもかかわらず、クラスタの仮定がターゲットドメインで違反していることを示す。
我々の新しいアプローチは、画像分類とセグメンテーションベンチマークの両方において、大幅な改善をもたらす。
論文 参考訳(メタデータ) (2020-06-25T09:13:00Z) - Implicit Class-Conditioned Domain Alignment for Unsupervised Domain
Adaptation [18.90240379173491]
クラス条件付きドメインアライメントの現在の方法は、対象ドメインの擬ラベル推定に基づいて損失関数を明示的に最小化することを目的としている。
擬似ラベルから直接モデルパラメータの明示的な最適化の必要性を除去する手法を提案する。
サンプル選択手順を擬似ラベルで暗黙的にガイドするサンプリングベース暗黙アライメント手法を提案する。
論文 参考訳(メタデータ) (2020-06-09T00:20:21Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。