論文の概要: LEAD: Learning Decomposition for Source-free Universal Domain Adaptation
- arxiv url: http://arxiv.org/abs/2403.03421v1
- Date: Wed, 6 Mar 2024 03:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:25:52.386930
- Title: LEAD: Learning Decomposition for Source-free Universal Domain Adaptation
- Title(参考訳): LEAD: ソースフリーユニバーサルドメイン適応のための学習分解
- Authors: Sanqing Qu, Tianpei Zou, Lianghua He, Florian R\"ohrbein, Alois Knoll,
Guang Chen, Changjun Jiang
- Abstract要約: LEArning Decomposition(LEArning Decomposition)という新たなアイデアを提案する。
VisDAデータセットのOPDAシナリオでは、LEADはGLCを3.5%上回り、疑似ラベル決定境界を導出する75%の時間を短縮する。
- 参考スコア(独自算出の注目度): 17.94547232392788
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal Domain Adaptation (UniDA) targets knowledge transfer in the
presence of both covariate and label shifts. Recently, Source-free Universal
Domain Adaptation (SF-UniDA) has emerged to achieve UniDA without access to
source data, which tends to be more practical due to data protection policies.
The main challenge lies in determining whether covariate-shifted samples belong
to target-private unknown categories. Existing methods tackle this either
through hand-crafted thresholding or by developing time-consuming iterative
clustering strategies. In this paper, we propose a new idea of LEArning
Decomposition (LEAD), which decouples features into source-known and -unknown
components to identify target-private data. Technically, LEAD initially
leverages the orthogonal decomposition analysis for feature decomposition.
Then, LEAD builds instance-level decision boundaries to adaptively identify
target-private data. Extensive experiments across various UniDA scenarios have
demonstrated the effectiveness and superiority of LEAD. Notably, in the OPDA
scenario on VisDA dataset, LEAD outperforms GLC by 3.5% overall H-score and
reduces 75% time to derive pseudo-labeling decision boundaries. Besides, LEAD
is also appealing in that it is complementary to most existing methods. The
code is available at https://github.com/ispc-lab/LEAD.
- Abstract(参考訳): ユニバーサルドメイン適応(UniDA)は、共変量とラベルシフトの両方が存在する場合の知識伝達を目標としている。
最近、ソースフリーのユニバーサルドメイン適応(sf-unida)が、ソースデータにアクセスせずにunidaを実現するために登場し、データ保護ポリシーのためより実用的になりがちである。
主な課題は、共変量シフトされたサンプルがターゲットがプライベートな未知のカテゴリに属するかどうかを決定することである。
既存の手法では、手作りのしきい値設定や、時間を要する反復的クラスタリング戦略の開発によってこれに取り組む。
本稿では,学習分解(lead: learning decomposition)という新しい概念を提案する。
技術的には、LEADはまず直交分解解析を利用して特徴分解を行う。
そして、LEADは、ターゲットプライベートなデータを適応的に識別するために、インスタンスレベルの決定境界を構築する。
様々なUniDAシナリオにわたる大規模な実験は、LEADの有効性と優位性を実証した。
特に、VisDAデータセット上のOPDAシナリオでは、LEADはGLCを3.5%上回り、疑似ラベル決定境界を導出する75%の時間を短縮する。
さらに、LEADは既存のほとんどのメソッドを補完するという点でも魅力的である。
コードはhttps://github.com/ispc-lab/leadで入手できる。
関連論文リスト
- Recall and Refine: A Simple but Effective Source-free Open-set Domain Adaptation Framework [9.03028904066824]
Open-set Domain Adaptation (OSDA)は、ラベル付きソースドメインからラベルなしターゲットドメインへのモデルを適応することを目的としている。
リコール・アンド・リファイン(RRDA)はSF-OSDAフレームワークで,対象とする未知のクラスに対する特徴を明示的に学習することで,制約に対処する。
論文 参考訳(メタデータ) (2024-11-19T15:18:50Z) - Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Source-Free Domain Adaptation for Medical Image Segmentation via
Prototype-Anchored Feature Alignment and Contrastive Learning [57.43322536718131]
医用画像セグメンテーションのための2段階のソースフリードメイン適応(SFDA)フレームワークを提案する。
プロトタイプアンコールされた特徴アライメントの段階では,まず,事前学習した画素ワイド分類器の重みを原プロトタイプとして利用する。
そこで,本研究では,目標となる特徴とクラスプロトタイプとの整合性を期待するコストを最小化し,双方向輸送を導入する。
論文 参考訳(メタデータ) (2023-07-19T06:07:12Z) - Spatio-Temporal Pixel-Level Contrastive Learning-based Source-Free
Domain Adaptation for Video Semantic Segmentation [117.39092621796753]
Source Domain Adaptation(SFDA)セットアップは、ソースデータにアクセスすることなく、ターゲットドメインにソーストレーニングされたモデルを適用することを目的としている。
情報源データの欠如に対処するために,時間情報の相関を最大限に活用する新しい手法を提案する。
実験によると、PixelLは現在のUDAやFDAのアプローチと比較して、ベンチマークの非最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-03-25T05:06:23Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Unsupervised Domain Adaptation with Norm and Shape
Constraints for Medical Image Segmentation [0.12183405753834559]
医用画像セグメンテーションのための非教師なし領域適応法(SFUDA)を提案する。
エントロピー最小化法に加えて、ターゲット領域における特徴ノルムを回避する損失関数を導入する。
提案手法は,すべてのデータセットにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-09-03T00:16:39Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。