論文の概要: Target Consistency for Domain Adaptation: when Robustness meets
Transferability
- arxiv url: http://arxiv.org/abs/2006.14263v2
- Date: Tue, 30 Jun 2020 09:16:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:03:26.977897
- Title: Target Consistency for Domain Adaptation: when Robustness meets
Transferability
- Title(参考訳): ドメイン適応のための目標整合性:ロバストネスが転送可能性に合うとき
- Authors: Yassine Ouali, Victor Bouvier, Myriam Tami, and C\'eline Hudelot
- Abstract要約: 学習不変表現(Learning Invariant Representations)は、ソースとUnsupervised Domain Adaptationのターゲットドメインの調整に成功している。
ソースドメインに保持されているにもかかわらず、クラスタの仮定がターゲットドメインで違反していることを示す。
我々の新しいアプローチは、画像分類とセグメンテーションベンチマークの両方において、大幅な改善をもたらす。
- 参考スコア(独自算出の注目度): 8.189696720657247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning Invariant Representations has been successfully applied for
reconciling a source and a target domain for Unsupervised Domain Adaptation. By
investigating the robustness of such methods under the prism of the cluster
assumption, we bring new evidence that invariance with a low source risk does
not guarantee a well-performing target classifier. More precisely, we show that
the cluster assumption is violated in the target domain despite being
maintained in the source domain, indicating a lack of robustness of the target
classifier. To address this problem, we demonstrate the importance of enforcing
the cluster assumption in the target domain, named Target Consistency (TC),
especially when paired with Class-Level InVariance (CLIV). Our new approach
results in a significant improvement, on both image classification and
segmentation benchmarks, over state-of-the-art methods based on invariant
representations. Importantly, our method is flexible and easy to implement,
making it a complementary technique to existing approaches for improving
transferability of representations.
- Abstract(参考訳): 学習不変表現(Learning Invariant Representations)は、ソースとUnsupervised Domain Adaptationのターゲットドメインの調整に成功している。
クラスター仮定のプリズムの下でそのような手法のロバスト性を調べることにより、低いソースリスクの不均一性は良好な目標分類器を保証しないという新たな証拠をもたらす。
より正確には、ソースドメインに保持されているにもかかわらず、クラスタの仮定がターゲットドメインに違反していることを示し、ターゲットの分類器の堅牢性の欠如を示す。
この問題に対処するために,特にCLIV(Class-Level InVariance)と組み合わせた場合,ターゲット領域におけるクラスタ仮定,Target Consistency (TC) の実施の重要性を示す。
新しいアプローチは,不変表現に基づく最先端手法よりも,画像分類とセグメンテーションベンチマークの両方において著しく改善する。
重要なことに,本手法は柔軟で実装が容易であり,表現の伝達性向上のための既存手法を補完する手法である。
関連論文リスト
- Adaptive Semantic Consistency for Cross-domain Few-shot Classification [27.176106714652327]
クロスドメイン・ショット分類(CD-FSC)は、いくつかのサンプルを用いて新規なターゲットクラスを特定することを目的としている。
本稿では,ドメイン間の堅牢性を向上する,シンプルなプラグアンドプレイ適応セマンティック一貫性フレームワークを提案する。
提案したASCは、ソースドメインの知識を明示的に伝達することで、モデルがターゲットドメインに過度に適合しないようにする。
論文 参考訳(メタデータ) (2023-08-01T15:37:19Z) - Conditional Support Alignment for Domain Adaptation with Label Shift [8.819673391477034]
アンラベルド・ドメイン適応(アンラベルド・ドメイン・アダプティブ、Unlabelled Domain adapt、UDA)とは、学習モデルを、ソース・ドメインのラベル付きサンプルと対象ドメインの教師なしサンプルに基づいて訓練するドメイン適応フレームワークである。
本稿では,対象領域の特徴表現分布に対する条件対称的サポートのばらつきを最小限に抑えることを目的とした,新しい条件逆サポートアライメント(CASA)を提案する。
論文 参考訳(メタデータ) (2023-05-29T05:20:18Z) - Polycentric Clustering and Structural Regularization for Source-free
Unsupervised Domain Adaptation [20.952542421577487]
Source-Free Domain Adaptation (SFDA)は、訓練済みのソースモデルから学習した知識を未確認のターゲットドメインに転送することで、ドメイン適応問題を解決することを目的としている。
既存のほとんどのメソッドは、機能プロトタイプを生成することによって、ターゲットデータに擬似ラベルを割り当てる。
本稿では,PCSRと命名された新しいフレームワークを,クラス内多中心クラスタリングおよび構造規則化戦略を通じてSFDAに取り組むために提案する。
論文 参考訳(メタデータ) (2022-10-14T02:20:48Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Self-paced Contrastive Learning with Hybrid Memory for Domain Adaptive
Object Re-ID [55.21702895051287]
ドメイン適応オブジェクトre-IDは、学習した知識をラベル付けされたソースドメインからラベル付けされていないターゲットドメインに転送することを目的としています。
本稿では,ハイブリットメモリを用いた自己評価型コントラスト学習フレームワークを提案する。
提案手法は,オブジェクトre-IDの複数のドメイン適応タスクにおいて,最先端の処理性能を向上する。
論文 参考訳(メタデータ) (2020-06-04T09:12:44Z) - Uncertainty-Aware Consistency Regularization for Cross-Domain Semantic
Segmentation [63.75774438196315]
Unsupervised Domain adapt (UDA) は、未ラベルのデータのみを持つ新しいターゲットドメインにソースドメインの既存のモデルを適用することを目的としている。
既存のほとんどの手法は、エラーを起こしやすい識別器ネットワークまたは不合理な教師モデルから生じる顕著な負の伝達に悩まされている。
ドメイン間セマンティックセグメンテーションのための不確実性を考慮した整合性正規化手法を提案する。
論文 参考訳(メタデータ) (2020-04-19T15:30:26Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Contradictory Structure Learning for Semi-supervised Domain Adaptation [67.89665267469053]
現在の逆順応法は、クロスドメインの特徴を整列させようとする。
1)条件分布ミスマッチ、2)決定境界のソース領域へのバイアス。
本稿では,対向構造の学習を統一することで,半教師付きドメイン適応のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-06T22:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。