論文の概要: Decorate the Newcomers: Visual Domain Prompt for Continual Test Time
Adaptation
- arxiv url: http://arxiv.org/abs/2212.04145v1
- Date: Thu, 8 Dec 2022 08:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 15:41:18.362328
- Title: Decorate the Newcomers: Visual Domain Prompt for Continual Test Time
Adaptation
- Title(参考訳): 新参者を飾る: 継続的テスト時間適応のためのビジュアルドメインプロンプト
- Authors: Yulu Gan, Xianzheng Ma, Yihang Lou, Yan Bai, Renrui Zhang, Nian Shi,
Lin Luo
- Abstract要約: Continual Test-Time Adaptation (CTTA) は、ソースデータにアクセスすることなく、ラベルなしのターゲットドメインを継続的に変更することを目的としている。
そこで本論文では,NLPにおける素早い学習によって動機づけられた画像レベルの視覚領域プロンプトを,ソースモデルパラメータを凍結させながら学習することを提案する。
- 参考スコア(独自算出の注目度): 14.473807945791132
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual Test-Time Adaptation (CTTA) aims to adapt the source model to
continually changing unlabeled target domains without access to the source
data. Existing methods mainly focus on model-based adaptation in a
self-training manner, such as predicting pseudo labels for new domain datasets.
Since pseudo labels are noisy and unreliable, these methods suffer from
catastrophic forgetting and error accumulation when dealing with dynamic data
distributions. Motivated by the prompt learning in NLP, in this paper, we
propose to learn an image-level visual domain prompt for target domains while
having the source model parameters frozen. During testing, the changing target
datasets can be adapted to the source model by reformulating the input data
with the learned visual prompts. Specifically, we devise two types of prompts,
i.e., domains-specific prompts and domains-agnostic prompts, to extract current
domain knowledge and maintain the domain-shared knowledge in the continual
adaptation. Furthermore, we design a homeostasis-based prompt adaptation
strategy to suppress domain-sensitive parameters in domain-invariant prompts to
learn domain-shared knowledge more effectively. This transition from the
model-dependent paradigm to the model-free one enables us to bypass the
catastrophic forgetting and error accumulation problems. Experiments show that
our proposed method achieves significant performance gains over
state-of-the-art methods on four widely-used benchmarks, including CIFAR-10C,
CIFAR-100C, ImageNet-C, and VLCS datasets.
- Abstract(参考訳): Continual Test-Time Adaptation (CTTA) は、ソースデータにアクセスすることなく、ラベルなしのターゲットドメインを継続的に変更することを目的としている。
既存の手法は主に、新しいドメインデータセットの擬似ラベルを予測するなど、自己学習的なモデルベースの適応に焦点を当てている。
擬似ラベルはノイズが多く信頼できないため、これらの手法は動的データ分布を扱う際に破滅的な忘れとエラーの蓄積に悩まされる。
本稿では、nlpにおけるプロンプト学習に動機づけられ、ソースモデルのパラメータを凍結しながら、対象領域に対する画像レベルのビジュアルドメインプロンプトを学習することを提案する。
テスト中、入力データを学習したビジュアルプロンプトで再構成することで、変更対象データセットをソースモデルに適用することができる。
具体的には、ドメイン固有のプロンプトとドメインに依存しないプロンプトという2つのタイプのプロンプトを考案し、現在のドメイン知識を抽出し、継続的な適応においてドメイン共有知識を維持する。
さらに,ドメイン共有知識をより効果的に学習するドメイン不変プロンプトにおけるドメイン感受性パラメータを抑制するために,ホメオスタシスに基づくプロンプト適応戦略を設計する。
このモデル依存パラダイムからモデル非依存パラダイムへの移行により、破滅的な忘れとエラー蓄積問題を回避できます。
提案手法は, CIFAR-10C, CIFAR-100C, ImageNet-C, VLCSデータセットを含む, 広く使用されている4つのベンチマークにおいて, 最先端の手法よりも高い性能向上を実現することを示す。
関連論文リスト
- PiPa++: Towards Unification of Domain Adaptive Semantic Segmentation via Self-supervised Learning [34.786268652516355]
教師なしドメイン適応セグメンテーションは、それらのドメインのラベル付きデータに頼ることなく、ターゲットドメイン上のモデルのセグメンテーション精度を向上させることを目的としている。
ソースドメイン(ラベル付きデータが利用可能な場所)とターゲットドメイン(ラベルなしデータのみが存在する場所)の特徴表現の整合を図る。
論文 参考訳(メタデータ) (2024-07-24T08:53:29Z) - Adapting to Distribution Shift by Visual Domain Prompt Generation [34.19066857066073]
いくつかのラベルのないデータを使って、テスト時にモデルを適応し、分散シフトに対処する。
ソースドメインから移行可能な知識を学ぶための知識銀行を構築します。
提案手法は,WILDSやDomainNetを含む5つの大規模ベンチマークにおいて,従来よりも優れている。
論文 参考訳(メタデータ) (2024-05-05T02:44:04Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Adaptive Semantic Consistency for Cross-domain Few-shot Classification [27.176106714652327]
クロスドメイン・ショット分類(CD-FSC)は、いくつかのサンプルを用いて新規なターゲットクラスを特定することを目的としている。
本稿では,ドメイン間の堅牢性を向上する,シンプルなプラグアンドプレイ適応セマンティック一貫性フレームワークを提案する。
提案したASCは、ソースドメインの知識を明示的に伝達することで、モデルがターゲットドメインに過度に適合しないようにする。
論文 参考訳(メタデータ) (2023-08-01T15:37:19Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - A Curriculum-style Self-training Approach for Source-Free Semantic Segmentation [91.13472029666312]
ソースフリーなドメイン適応型セマンティックセマンティックセグメンテーションのためのカリキュラムスタイルの自己学習手法を提案する。
提案手法は, ソースフリーなセマンティックセグメンテーションタスクにおいて, 合成-実-実-実-実-実-実-非実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実
論文 参考訳(メタデータ) (2021-06-22T10:21:39Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Learning to Cluster under Domain Shift [20.00056591000625]
本研究では、ソースデータとターゲットデータの両方にアノテーションがない場合に、ソースからターゲットドメインに知識を転送する問題に対処する。
ディープクラスタリングに関する最近の研究から着想を得た私たちのアプローチは、複数のソースドメインから収集されたデータからの情報を活用する。
本手法は,少数のサンプルが存在する場合でも,関連する意味情報を自動的に発見できることを示す。
論文 参考訳(メタデータ) (2020-08-11T12:03:01Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。