論文の概要: COCA: Classifier-Oriented Calibration via Textual Prototype for
Source-Free Universal Domain Adaptation
- arxiv url: http://arxiv.org/abs/2308.10450v2
- Date: Mon, 11 Mar 2024 10:45:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 16:40:05.002956
- Title: COCA: Classifier-Oriented Calibration via Textual Prototype for
Source-Free Universal Domain Adaptation
- Title(参考訳): coca:ソースフリーユニバーサルドメイン適応のためのテキストプロトタイプによる分類器指向のキャリブレーション
- Authors: Xinghong Liu, Yi Zhou, Tao Zhou, Chun-Mei Feng, Ling Shao
- Abstract要約: ユニバーサルドメイン適応(UniDA)は、データソース間のドメインとカテゴリのシフトに対処することを目的としている。
SF-UniDAメソッドは、ターゲットドメインへの適応を実行する際に、ソースサンプルに直接アクセスする必要がなくなる。
既存のSF-UniDAメソッドは、ソースモデルをトレーニングするために大量のラベル付きソースサンプルを必要とする。
本稿では,この問題に対処するための新しいCOCA法を提案する。
- 参考スコア(独自算出の注目度): 58.53682309436275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal domain adaptation (UniDA) aims to address domain and category
shifts across data sources. Recently, due to more stringent data restrictions,
researchers have introduced source-free UniDA (SF-UniDA). SF-UniDA methods
eliminate the need for direct access to source samples when performing
adaptation to the target domain. However, existing SF-UniDA methods still
require an extensive quantity of labeled source samples to train a source
model, resulting in significant labeling costs. To tackle this issue, we
present a novel plug-and-play classifier-oriented calibration (COCA) method.
COCA, which exploits textual prototypes, is designed for the source models
based on few-shot learning with vision-language models (VLMs). It endows the
VLM-powered few-shot learners, which are built for closed-set classification,
with the unknown-aware ability to distinguish common and unknown classes in the
SF-UniDA scenario. Crucially, COCA is a new paradigm to tackle SF-UniDA
challenges based on VLMs, which focuses on classifier instead of image encoder
optimization. Experiments show that COCA outperforms state-of-the-art UniDA and
SF-UniDA models.
- Abstract(参考訳): ユニバーサルドメイン適応(UniDA)は、データソース間のドメインとカテゴリのシフトに対処することを目的としている。
最近、より厳密なデータ制限のため、研究者はソースフリーのUniDA(SF-UniDA)を導入した。
sf-unidaメソッドは、ターゲットドメインに適応するときにソースサンプルに直接アクセスする必要がない。
しかし、既存のsf-unidaメソッドは、ソースモデルをトレーニングするために大量のラベル付きソースサンプルを必要とするため、かなりのラベルコストがかかる。
この問題に対処するために, プラグアンドプレイ分類器指向校正法(COCA)を提案する。
テキストプロトタイプを利用するcocaは、視覚言語モデル(vlms)を用いた少数ショット学習に基づくソースモデル向けに設計されている。
SF-UniDAシナリオの一般的なクラスと未知のクラスを識別する未知の能力を備えた、クローズドセットの分類用に構築されたVLMベースの少ショット学習者を提供する。
COCAは、画像エンコーダ最適化の代わりに分類器に焦点を当てたVLMに基づくSF-UniDA課題に取り組むための新しいパラダイムである。
実験の結果、COCAは最先端のUniDAモデルとSF-UniDAモデルより優れていた。
関連論文リスト
- Recall and Refine: A Simple but Effective Source-free Open-set Domain Adaptation Framework [9.03028904066824]
Open-set Domain Adaptation (OSDA)は、ラベル付きソースドメインからラベルなしターゲットドメインへのモデルを適応することを目的としている。
リコール・アンド・リファイン(RRDA)はSF-OSDAフレームワークで,対象とする未知のクラスに対する特徴を明示的に学習することで,制約に対処する。
論文 参考訳(メタデータ) (2024-11-19T15:18:50Z) - LEAD: Learning Decomposition for Source-free Universal Domain Adaptation [17.94547232392788]
LEArning Decomposition(LEArning Decomposition)という新たなアイデアを提案する。
VisDAデータセットのOPDAシナリオでは、LEADはGLCを3.5%上回り、疑似ラベル決定境界を導出する75%の時間を短縮する。
論文 参考訳(メタデータ) (2024-03-06T03:08:20Z) - Unknown Sample Discovery for Source Free Open Set Domain Adaptation [1.8130068086063336]
Open Set Domain Adaptation (OSDA)は、ソースドメインでトレーニングされたモデルを、分散シフトの対象となるターゲットドメインに適応させることを目的としている。
本研究では,教師モデルを用いて未知のサンプル分離を行うSF-OSDA手法として,未知サンプル発見(USD)を導入する。
論文 参考訳(メタデータ) (2023-12-05T20:07:51Z) - Source-Free Domain Adaptation for Medical Image Segmentation via
Prototype-Anchored Feature Alignment and Contrastive Learning [57.43322536718131]
医用画像セグメンテーションのための2段階のソースフリードメイン適応(SFDA)フレームワークを提案する。
プロトタイプアンコールされた特徴アライメントの段階では,まず,事前学習した画素ワイド分類器の重みを原プロトタイプとして利用する。
そこで,本研究では,目標となる特徴とクラスプロトタイプとの整合性を期待するコストを最小化し,双方向輸送を導入する。
論文 参考訳(メタデータ) (2023-07-19T06:07:12Z) - Spatio-Temporal Pixel-Level Contrastive Learning-based Source-Free
Domain Adaptation for Video Semantic Segmentation [117.39092621796753]
Source Domain Adaptation(SFDA)セットアップは、ソースデータにアクセスすることなく、ターゲットドメインにソーストレーニングされたモデルを適用することを目的としている。
情報源データの欠如に対処するために,時間情報の相関を最大限に活用する新しい手法を提案する。
実験によると、PixelLは現在のUDAやFDAのアプローチと比較して、ベンチマークの非最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-03-25T05:06:23Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。