論文の概要: DynaPrompt: Dynamic Test-Time Prompt Tuning
- arxiv url: http://arxiv.org/abs/2501.16404v1
- Date: Mon, 27 Jan 2025 09:10:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:43:13.484698
- Title: DynaPrompt: Dynamic Test-Time Prompt Tuning
- Title(参考訳): DynaPrompt: 動的テスト時間プロンプトチューニング
- Authors: Zehao Xiao, Shilin Yan, Jack Hong, Jiayin Cai, Xiaolong Jiang, Yao Hu, Jiayi Shen, Qi Wang, Cees G. M. Snoek,
- Abstract要約: 動的テスト時間プロンプトチューニングのためのDynaPromptを提案する。
オンラインプロンプトバッファ上に構築されたDynaPromptは、テストサンプル毎に関連するプロンプトを適応的に選択し、最適化する。
14のデータセットの実験では、DynaPromptの有効性が示されている。
- 参考スコア(独自算出の注目度): 50.37425527587575
- License:
- Abstract: Test-time prompt tuning enhances zero-shot generalization of vision-language models but tends to ignore the relatedness among test samples during inference. Online test-time prompt tuning provides a simple way to leverage the information in previous test samples, albeit with the risk of prompt collapse due to error accumulation. To enhance test-time prompt tuning, we propose DynaPrompt, short for dynamic test-time prompt tuning, exploiting relevant data distribution information while reducing error accumulation. Built on an online prompt buffer, DynaPrompt adaptively selects and optimizes the relevant prompts for each test sample during tuning. Specifically, we introduce a dynamic prompt selection strategy based on two metrics: prediction entropy and probability difference. For unseen test data information, we develop dynamic prompt appending, which allows the buffer to append new prompts and delete the inactive ones. By doing so, the prompts are optimized to exploit beneficial information on specific test data, while alleviating error accumulation. Experiments on fourteen datasets demonstrate the effectiveness of dynamic test-time prompt tuning.
- Abstract(参考訳): テスト時プロンプトチューニングは、視覚言語モデルのゼロショット一般化を促進するが、推論中のテストサンプル間の関連性を無視する傾向がある。
オンラインテスト時間プロンプトチューニングは、エラーの蓄積による即時崩壊のリスクがあるにもかかわらず、以前のテストサンプルの情報を活用する簡単な方法を提供する。
テスト時プロンプトチューニングを改善するため,動的テスト時プロンプトチューニングに短いDynaPromptを提案する。
オンラインプロンプトバッファ上に構築されたDynaPromptは、チューニング中に各テストサンプルに関するプロンプトを適応的に選択し、最適化する。
具体的には、予測エントロピーと確率差の2つの指標に基づく動的プロンプト選択戦略を導入する。
未確認のテストデータ情報に対して,バッファが新しいプロンプトを付加し,非アクティブなプロンプトを削除する動的プロンプトアタッチメントを開発する。
これにより、プロンプトは、エラーの蓄積を軽減しつつ、特定のテストデータに対する有益な情報を活用するように最適化される。
14のデータセットの実験では、動的テスト時間プロンプトチューニングの有効性が示されている。
関連論文リスト
- Historical Test-time Prompt Tuning for Vision Foundation Models [99.96912440427192]
HisTPTは、学習したテストサンプルの有用な知識を記憶する、履歴的テストタイムプロンプトチューニング技術である。
HisTPTは、異なる視覚認識タスクを処理しながら、一貫した優れたプロンプトチューニング性能を達成する。
論文 参考訳(メタデータ) (2024-10-27T06:03:15Z) - Prompt Diffusion Robustifies Any-Modality Prompt Learning [43.35989471544046]
本稿では,各試料にカスタマイズされたプロンプトを得るために,拡散モデルを用いてプロンプトを徐々に洗練するプロンプト拡散法を提案する。
試験されたすべての素早い学習方法に対して、迅速な拡散を加えることで、15の多様なデータセットでテストされた分類タスクにおいて、ベース・ツー・ニューな一般化、クロスデータセットの一般化、ドメインの一般化のためのより堅牢な結果が得られる。
論文 参考訳(メタデータ) (2024-10-26T12:36:25Z) - Efficiently Learning at Test-Time: Active Fine-Tuning of LLMs [37.01883745855289]
本稿では,モデル応答の不確実性を低減するために設計されたデータ選択アルゴリズムSIFTを紹介する。
SIFTは計算オーバーヘッドを最小限に抑えながら、常に最近傍の検索より優れていることを示す。
我々は、Nearest Neighbor検索のドロップイン代替として使用できる$textttactiveft$ライブラリを提供する。
論文 参考訳(メタデータ) (2024-10-10T15:17:49Z) - Test-Time Low Rank Adaptation via Confidence Maximization for Zero-Shot Generalization of Vision-Language Models [4.655740975414312]
本稿では,大規模視覚言語モデル(VLM)のゼロショット一般化のための高速チューニングの代替として,テスト時間低ランク適応(TTL)を提案する。
TTLは、予測信頼度を最大化することにより、変圧器の注意重みを更新するテスト時間効率適応手法を提供する。
論文 参考訳(メタデータ) (2024-07-22T17:59:19Z) - STAMP: Outlier-Aware Test-Time Adaptation with Stable Memory Replay [76.06127233986663]
テスト時間適応(TTA)は、トレーニングデータとテストデータの間の分散シフトに、未ラベルのデータのみを用いて対処することを目的としている。
本稿では,サンプル認識とオフリエ拒絶の両方を行う問題に注意を払っている。
本稿では,STAble Memory rePlay (STAMP) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-22T16:25:41Z) - Fast-Slow Test-Time Adaptation for Online Vision-and-Language Navigation [67.18144414660681]
オンラインビジョン・アンド・ランゲージナビゲーション(VLN)のためのFSTTA(Fast-Slow Test-Time Adaptation)アプローチを提案する。
提案手法は,4つのベンチマークにおいて顕著な性能向上を実現する。
論文 参考訳(メタデータ) (2023-11-22T07:47:39Z) - Align Your Prompts: Test-Time Prompting with Distribution Alignment for
Zero-Shot Generalization [64.62570402941387]
テスト領域のギャップを埋めるために、機能分散シフトを最小限にして、テスト時にマルチモーダルプロンプトを適用するために、単一のテストサンプルを使用します。
提案手法は,既存のプロンプト学習技術以上のゼロショットトップ1精度を向上し,ベースラインのMaPLeよりも3.08%向上した。
論文 参考訳(メタデータ) (2023-11-02T17:59:32Z) - Robust Test-Time Adaptation in Dynamic Scenarios [9.475271284789969]
テスト時適応(TTA)は、未ラベルのテストデータストリームのみを用いて、事前訓練されたモデルを分散をテストすることを目的としている。
PTTAの複雑なデータストリームに対してロバストテスト時間適応法(RoTTA)を精査する。
私たちのメソッドは実装が簡単で、迅速なデプロイメントに適しています。
論文 参考訳(メタデータ) (2023-03-24T10:19:14Z) - Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language
Models [107.05966685291067]
テスト時間プロンプトチューニング (TPT) を提案し, 適応的なプロンプトを1つのテストサンプルで学習する。
TPTはCLIPのゼロショットトップ1の精度を平均3.6%改善する。
クロスデータセットの一般化を目に見えないカテゴリで評価する際、PTは追加のトレーニングデータを使用する最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2022-09-15T17:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。