論文の概要: COCA: Classifier-Oriented Calibration for Source-Free Universal Domain
Adaptation via Textual Prototype
- arxiv url: http://arxiv.org/abs/2308.10450v1
- Date: Mon, 21 Aug 2023 03:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 15:09:09.255423
- Title: COCA: Classifier-Oriented Calibration for Source-Free Universal Domain
Adaptation via Textual Prototype
- Title(参考訳): COCA: テキストプロトタイプによるソースフリーユニバーサルドメイン適応のための分類器指向キャリブレーション
- Authors: Xinghong Liu, Yi Zhou, Tao Zhou, Chun-Mei Feng, Ling Shao
- Abstract要約: Universal Domain Adaptation (UniDA)は、ソースとターゲットドメインの共通クラスとプライベートクラスを区別することを目的としている。
SF-UniDAメソッドは、ターゲットドメインへの適応を実行する際に、ソースサンプルに直接アクセスする必要がなくなる。
既存のSF-UniDAメソッドは、ソースモデルをトレーニングするために大量のラベル付きソースサンプルを必要とする。
- 参考スコア(独自算出の注目度): 58.53682309436275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal Domain Adaptation (UniDA) aims to distinguish common and private
classes between the source and target domains where domain shift exists.
Recently, due to more stringent data restrictions, researchers have introduced
Source-Free UniDA (SF-UniDA) in more realistic scenarios. SF-UniDA methods
eliminate the need for direct access to source samples when performing
adaptation to the target domain. However, existing SF-UniDA methods still
require an extensive quantity of labeled source samples to train a source
model, resulting in significant labeling costs. To tackle this issue, we
present a novel Classifier-Oriented Calibration (COCA) method. This method,
which leverages textual prototypes, is formulated for the source model based on
few-shot learning. Specifically, we propose studying few-shot learning, usually
explored for closed-set scenarios, to identify common and domain-private
classes despite a significant domain shift between source and target domains.
Essentially, we present a novel paradigm based on the vision-language model to
learn SF-UniDA and hugely reduce the labeling costs on the source domain.
Experimental results demonstrate that our approach outperforms state-of-the-art
UniDA and SF-UniDA models.
- Abstract(参考訳): Universal Domain Adaptation (UniDA)は、ドメインシフトが存在するソースドメインとターゲットドメインの共通クラスとプライベートクラスを区別することを目的としている。
最近、より厳密なデータ制限のため、研究者はより現実的なシナリオでSource-Free UniDA (SF-UniDA)を導入した。
sf-unidaメソッドは、ターゲットドメインに適応するときにソースサンプルに直接アクセスする必要がない。
しかし、既存のsf-unidaメソッドは、ソースモデルをトレーニングするために大量のラベル付きソースサンプルを必要とするため、かなりのラベルコストがかかる。
そこで本研究では,新しい分類器指向キャリブレーション(coca)法を提案する。
テキストプロトタイプを活用したこの手法は,少人数学習に基づくソースモデルに対して定式化されている。
具体的には、ソースドメインとターゲットドメインの間に大きなドメインシフトがあるにも拘わらず、共通クラスとドメインプライベートクラスを識別するために、通常クローズドセットのシナリオのために研究される少数ショット学習を提案する。
本質的には、SF-UniDAを学習し、ソースドメインのラベリングコストを大幅に削減するビジョン言語モデルに基づく新しいパラダイムを提案する。
実験の結果,本手法は最先端のUniDAモデルとSF-UniDAモデルより優れていた。
関連論文リスト
- Recall and Refine: A Simple but Effective Source-free Open-set Domain Adaptation Framework [9.03028904066824]
Open-set Domain Adaptation (OSDA)は、ラベル付きソースドメインからラベルなしターゲットドメインへのモデルを適応することを目的としている。
リコール・アンド・リファイン(RRDA)はSF-OSDAフレームワークで,対象とする未知のクラスに対する特徴を明示的に学習することで,制約に対処する。
論文 参考訳(メタデータ) (2024-11-19T15:18:50Z) - LEAD: Learning Decomposition for Source-free Universal Domain Adaptation [17.94547232392788]
LEArning Decomposition(LEArning Decomposition)という新たなアイデアを提案する。
VisDAデータセットのOPDAシナリオでは、LEADはGLCを3.5%上回り、疑似ラベル決定境界を導出する75%の時間を短縮する。
論文 参考訳(メタデータ) (2024-03-06T03:08:20Z) - Unknown Sample Discovery for Source Free Open Set Domain Adaptation [1.8130068086063336]
Open Set Domain Adaptation (OSDA)は、ソースドメインでトレーニングされたモデルを、分散シフトの対象となるターゲットドメインに適応させることを目的としている。
本研究では,教師モデルを用いて未知のサンプル分離を行うSF-OSDA手法として,未知サンプル発見(USD)を導入する。
論文 参考訳(メタデータ) (2023-12-05T20:07:51Z) - Source-Free Domain Adaptation for Medical Image Segmentation via
Prototype-Anchored Feature Alignment and Contrastive Learning [57.43322536718131]
医用画像セグメンテーションのための2段階のソースフリードメイン適応(SFDA)フレームワークを提案する。
プロトタイプアンコールされた特徴アライメントの段階では,まず,事前学習した画素ワイド分類器の重みを原プロトタイプとして利用する。
そこで,本研究では,目標となる特徴とクラスプロトタイプとの整合性を期待するコストを最小化し,双方向輸送を導入する。
論文 参考訳(メタデータ) (2023-07-19T06:07:12Z) - Spatio-Temporal Pixel-Level Contrastive Learning-based Source-Free
Domain Adaptation for Video Semantic Segmentation [117.39092621796753]
Source Domain Adaptation(SFDA)セットアップは、ソースデータにアクセスすることなく、ターゲットドメインにソーストレーニングされたモデルを適用することを目的としている。
情報源データの欠如に対処するために,時間情報の相関を最大限に活用する新しい手法を提案する。
実験によると、PixelLは現在のUDAやFDAのアプローチと比較して、ベンチマークの非最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-03-25T05:06:23Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。