論文の概要: Conditional Support Alignment for Domain Adaptation with Label Shift
- arxiv url: http://arxiv.org/abs/2305.18458v1
- Date: Mon, 29 May 2023 05:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 20:45:58.491756
- Title: Conditional Support Alignment for Domain Adaptation with Label Shift
- Title(参考訳): ラベルシフトを伴う領域適応のための条件付き支援アライメント
- Authors: Anh T Nguyen, Lam Tran, Anh Tong, Tuan-Duy H. Nguyen, Toan Tran
- Abstract要約: アンラベルド・ドメイン適応(アンラベルド・ドメイン・アダプティブ、Unlabelled Domain adapt、UDA)とは、学習モデルを、ソース・ドメインのラベル付きサンプルと対象ドメインの教師なしサンプルに基づいて訓練するドメイン適応フレームワークである。
本稿では,対象領域の特徴表現分布に対する条件対称的サポートのばらつきを最小限に抑えることを目的とした,新しい条件逆サポートアライメント(CASA)を提案する。
- 参考スコア(独自算出の注目度): 8.819673391477034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupervised domain adaptation (UDA) refers to a domain adaptation framework
in which a learning model is trained based on the labeled samples on the source
domain and unlabelled ones in the target domain. The dominant existing methods
in the field that rely on the classical covariate shift assumption to learn
domain-invariant feature representation have yielded suboptimal performance
under the label distribution shift between source and target domains. In this
paper, we propose a novel conditional adversarial support alignment (CASA)
whose aim is to minimize the conditional symmetric support divergence between
the source's and target domain's feature representation distributions, aiming
at a more helpful representation for the classification task. We also introduce
a novel theoretical target risk bound, which justifies the merits of aligning
the supports of conditional feature distributions compared to the existing
marginal support alignment approach in the UDA settings. We then provide a
complete training process for learning in which the objective optimization
functions are precisely based on the proposed target risk bound. Our empirical
results demonstrate that CASA outperforms other state-of-the-art methods on
different UDA benchmark tasks under label shift conditions.
- Abstract(参考訳): 教師なしドメイン適応(Unsupervised domain adapt, UDA)とは、学習モデルを、ソースドメイン上のラベル付きサンプルと、ターゲットドメイン内の未ラベルのサンプルに基づいてトレーニングするドメイン適応フレームワークである。
古典的共変量シフトを仮定してドメイン不変な特徴表現を学ぶ分野における支配的既存手法は、ソース領域とターゲット領域の間のラベル分布シフトの下での準最適性能をもたらす。
本稿では,対象領域の特徴表現分布とソース領域の特徴表現分布との条件対称的サポートのばらつきを最小限に抑えることを目的とした,新しい条件逆サポートアライメント(CASA)を提案する。
また,UDA設定における既存の限界的サポートアライメントアプローチと比較して,条件付き特徴分布のサポートの整合性を正当化する理論的ターゲットリスクバウンドを導入する。
そして,提案する目標リスクバウンドに基づいて目標最適化関数を精度良く学習するための完全なトレーニングプロセスを提供する。
実験の結果、CASAはラベルシフト条件下での異なるUDAベンチマークタスクにおいて、他の最先端手法よりも優れていることが示された。
関連論文リスト
- Self-training through Classifier Disagreement for Cross-Domain Opinion
Target Extraction [62.41511766918932]
オピニオンターゲット抽出(OTE)またはアスペクト抽出(AE)は意見マイニングの基本的な課題である。
最近の研究は、現実世界のシナリオでよく見られるクロスドメインのOTEに焦点を当てている。
そこで本稿では,ドメイン固有の教師と学生のネットワークから出力されるモデルが未学習のターゲットデータと一致しない対象サンプルを選択するためのSSLアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:31:17Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Attention-based Cross-Layer Domain Alignment for Unsupervised Domain
Adaptation [14.65316832227658]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから伝達可能な知識を学び、トレーニングされたモデルをラベルなしターゲットドメインに適応させることを目的としている。
1つの一般的な戦略は、ディープモデルによって抽出されたセマンティックな特徴を整合させることで、分布の相違を最小限にすることである。
論文 参考訳(メタデータ) (2022-02-27T08:36:12Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Your Classifier can Secretly Suffice Multi-Source Domain Adaptation [72.47706604261992]
マルチソースドメイン適応(MSDA)は、複数のラベル付きソースドメインからラベルなしターゲットドメインへのタスク知識の転送を扱う。
ラベル管理下のドメインを暗黙的に整列させる深層モデルが観察されるMSDAに対して、異なる視点を提示する。
論文 参考訳(メタデータ) (2021-03-20T12:44:13Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Target Consistency for Domain Adaptation: when Robustness meets
Transferability [8.189696720657247]
学習不変表現(Learning Invariant Representations)は、ソースとUnsupervised Domain Adaptationのターゲットドメインの調整に成功している。
ソースドメインに保持されているにもかかわらず、クラスタの仮定がターゲットドメインで違反していることを示す。
我々の新しいアプローチは、画像分類とセグメンテーションベンチマークの両方において、大幅な改善をもたらす。
論文 参考訳(メタデータ) (2020-06-25T09:13:00Z) - Implicit Class-Conditioned Domain Alignment for Unsupervised Domain
Adaptation [18.90240379173491]
クラス条件付きドメインアライメントの現在の方法は、対象ドメインの擬ラベル推定に基づいて損失関数を明示的に最小化することを目的としている。
擬似ラベルから直接モデルパラメータの明示的な最適化の必要性を除去する手法を提案する。
サンプル選択手順を擬似ラベルで暗黙的にガイドするサンプリングベース暗黙アライメント手法を提案する。
論文 参考訳(メタデータ) (2020-06-09T00:20:21Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。