論文の概要: Visual Prompt Tuning for Test-time Domain Adaptation
- arxiv url: http://arxiv.org/abs/2210.04831v1
- Date: Mon, 10 Oct 2022 16:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 18:13:39.983373
- Title: Visual Prompt Tuning for Test-time Domain Adaptation
- Title(参考訳): テスト時間領域適応のためのビジュアルプロンプトチューニング
- Authors: Yunhe Gao, Xingjian Shi, Yi Zhu, Hao Wang, Zhiqiang Tang, Xiong Zhou,
Mu Li, Dimitris N. Metaxas
- Abstract要約: 本稿では,2つの重要な要素を持つデータ効率・プロンプト・チューニング(DePT)と呼ばれる簡単なレシピを提案する。
このようなパラメータ効率の良い微調整は,学習対象の雑音に過度に適応することなく,モデル表現を対象領域に効率よく適応させることができる。
パラメータがはるかに少ないため、DePTは主要な適応ベンチマークにおける最先端のパフォーマンスだけでなく、優れたデータ効率を示す。
- 参考スコア(独自算出の注目度): 48.16620171809511
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Models should have the ability to adapt to unseen data during test-time to
avoid performance drop caused by inevitable distribution shifts in real-world
deployment scenarios. In this work, we tackle the practical yet challenging
test-time adaptation (TTA) problem, where a model adapts to the target domain
without accessing the source data. We propose a simple recipe called
data-efficient prompt tuning (DePT) with two key ingredients. First, DePT plugs
visual prompts into the vision Transformer and only tunes these
source-initialized prompts during adaptation. We find such parameter-efficient
finetuning can efficiently adapt the model representation to the target domain
without overfitting to the noise in the learning objective. Second, DePT
bootstraps the source representation to the target domain by memory bank-based
online pseudo labeling. A hierarchical self-supervised regularization specially
designed for prompts is jointly optimized to alleviate error accumulation
during self-training. With much fewer tunable parameters, DePT demonstrates not
only state-of-the-art performance on major adaptation benchmarks, but also
superior data efficiency, i.e., adaptation with only 1\% or 10\% data without
much performance degradation compared to 100\% data. In addition, DePT is also
versatile to be extended to online or multi-source TTA settings.
- Abstract(参考訳): モデルは、実世界のデプロイメントシナリオにおける必然的な分散シフトに起因するパフォーマンス低下を避けるために、テスト期間中に目に見えないデータに適応する能力を持つべきです。
本研究では,モデルがソースデータにアクセスせずに対象領域に適応する,実用的かつ困難なテスト時適応(TTA)問題に取り組む。
そこで本研究では,2つの主成分を用いたデータ効率プロンプトチューニング(dept)という簡単なレシピを提案する。
まず、deptは視覚トランスフォーマーに視覚プロンプトを挿入し、これらのソース初期化プロンプトのみを適応時にチューニングする。
このようなパラメータ効率の良い微調整は,学習対象の雑音に過度に適応することなく,モデル表現を対象領域に効率よく適応させることができる。
次に、deptは、メモリバンクベースのオンライン擬似ラベリングによって、ソース表現をターゲットドメインにブートストラップする。
プロンプト用に特別に設計された階層的自己監督正規化は、自己学習中のエラー蓄積を軽減するために共同最適化される。
チューニング可能なパラメータをはるかに少なくすることで、deptは、主要な適応ベンチマークでの最先端のパフォーマンスだけでなく、100\%データに比べて性能低下のない1\%または10\%データでの適応性、より優れたデータ効率を示す。
さらに、DePTはオンラインまたはマルチソースのTTA設定にも拡張可能である。
関連論文リスト
- Visual Fourier Prompt Tuning [63.66866445034855]
本稿では,大規模なトランスフォーマーモデルに適用するための汎用的で効果的な方法として,Visual Fourier Prompt Tuning (VFPT)法を提案する。
提案手法では,高速フーリエ変換を即時埋め込みに取り入れ,空間領域情報と周波数領域情報の両方を調和的に検討する。
提案手法は,2つのベンチマークにおいて,現状のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-02T18:18:35Z) - Parameter-Efficient Fine-Tuning With Adapters [5.948206235442328]
本研究では,UniPELTフレームワークをベースとした新しい適応手法を提案する。
提案手法では, ベースモデルパラメータの最小限の再学習を行うことなく, 事前学習したモデルを新しいタスクに効率的に転送できるアダプタを用いる。
論文 参考訳(メタデータ) (2024-05-09T01:40:38Z) - REALM: Robust Entropy Adaptive Loss Minimization for Improved
Single-Sample Test-Time Adaptation [5.749155230209001]
フルテスト時間適応(F-TTA)は、列車とテストデータの分散シフトによる性能損失を軽減することができる。
本稿では,F-TTAの雑音に対する堅牢性向上のための一般的な枠組みについて述べる。
論文 参考訳(メタデータ) (2023-09-07T18:44:58Z) - Approximated Prompt Tuning for Vision-Language Pre-trained Models [54.326232586461614]
視覚言語による事前学習モデルでは、事前学習タスクと下流タスクのギャップを埋めるために、しばしば多くの学習可能なトークンを必要とする。
本稿では,効率的なVL転送学習を実現するために,APT(Approximated Prompt Tuning)アプローチを提案する。
論文 参考訳(メタデータ) (2023-06-27T05:43:47Z) - Sensitivity-Aware Visual Parameter-Efficient Fine-Tuning [91.5113227694443]
私たちは新しいビジュアルを提案します。
Sensuous-Aware Fine-Tuning (SPT) スキーム。
SPTはタスク固有の重要な位置にトレーニング可能なパラメータを割り当てる。
ダウンストリーム認識タスクの幅広い実験により,SPTは既存のPEFT法と相補的であることが示された。
論文 参考訳(メタデータ) (2023-03-15T12:34:24Z) - Improving the Sample Efficiency of Prompt Tuning with Domain Adaptation [15.388175691903252]
本研究では,ソースとターゲットデータ分布が類似した領域を中心に,決定境界をスムーズに調整するdoMain Adaptation (OPTIMA)を提案する。
OPTIMAは、強いベースラインと比較して、プロンプトチューニングの転送性とサンプル効率を著しく向上させる。
論文 参考訳(メタデータ) (2022-10-06T14:44:21Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Listen, Adapt, Better WER: Source-free Single-utterance Test-time
Adaptation for Automatic Speech Recognition [65.84978547406753]
Test-time Adaptationは、ソースドメインでトレーニングされたモデルに適応して、テストサンプルの予測を改善することを目的としている。
単一発話テスト時間適応 (SUTA) は音声領域における最初のTTA研究である。
論文 参考訳(メタデータ) (2022-03-27T06:38:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。