論文の概要: Dynamic Prompting: A Unified Framework for Prompt Tuning
- arxiv url: http://arxiv.org/abs/2303.02909v2
- Date: Sat, 27 May 2023 01:29:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 01:18:04.612121
- Title: Dynamic Prompting: A Unified Framework for Prompt Tuning
- Title(参考訳): 動的プロンプト:プロンプトチューニングのための統一フレームワーク
- Authors: Xianjun Yang, Wei Cheng, Xujiang Zhao, Wenchao Yu, Linda Petzold and
Haifeng Chen
- Abstract要約: 本稿では、特定のタスクやインスタンスに基づいて、異なるプロンプトの要因を動的に決定する統合動的プロンプト(DP)チューニング戦略を提案する。
実験結果は、幅広いタスクにわたる動的プロンプトチューニングによって達成された顕著なパフォーマンス改善を裏付けるものである。
我々は、全データ、少数ショット、マルチタスクのシナリオの下で、我々のアプローチの普遍的な適用性を確立する。
- 参考スコア(独自算出の注目度): 33.175097465669374
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: It has been demonstrated that the art of prompt tuning is highly effective in
efficiently extracting knowledge from pretrained foundation models,
encompassing pretrained language models (PLMs), vision pretrained models, and
vision-language (V-L) models. However, the efficacy of employing fixed soft
prompts with a predetermined position for concatenation with inputs for all
instances, irrespective of their inherent disparities, remains uncertain.
Variables such as the position, length, and representations of prompts across
diverse instances and tasks can substantially influence the performance of
prompt tuning. In this context, we provide a theoretical analysis, which
reveals that optimizing the position of the prompt to encompass the input can
capture additional semantic information that traditional prefix or postfix
prompt tuning methods fail to capture. Building upon our analysis, we present a
unified dynamic prompt (DP) tuning strategy that dynamically determines
different factors of prompts based on specific tasks and instances. To
accomplish this, we employ a lightweight learning network with Gumble-Softmax,
allowing us to learn instance-dependent guidance. Experimental results
underscore the significant performance improvement achieved by dynamic prompt
tuning across a wide range of tasks, including NLP tasks, vision recognition
tasks, and vision-language tasks. Furthermore, we establish the universal
applicability of our approach under full-data, few-shot, and multitask
scenarios. Codes are available at https://github.com/Xianjun-Yang/DPT.
- Abstract(参考訳): 先行学習言語モデル (PLM) や視覚事前学習モデル, 視覚言語モデル (V-L) などを含む, 事前学習基礎モデルから知識を効率的に抽出する上で, 迅速なチューニング技術が有効であることが実証されている。
しかし,本質的な差異にかかわらず,入力と入力を結合するための所定の位置の固定ソフトプロンプトを用いる効果はいまだ不明である。
様々なインスタンスやタスクにまたがるプロンプトの位置、長さ、表現などの変数は、プロンプトチューニングのパフォーマンスに大きな影響を与える。
この文脈では、入力を包含するプロンプトの位置を最適化することで、従来のプレフィックスやポストフィックスのプロンプトチューニング手法が捕捉できない追加のセマンティック情報を取得することができることを示す理論解析を提供する。
本分析に基づいて,特定のタスクやインスタンスに基づいて異なるプロンプトの要因を動的に決定する統合動的プロンプト(DP)チューニング戦略を提案する。
これを実現するために、Gumble-Softmaxを使った軽量学習ネットワークを使用し、インスタンスに依存したガイダンスを学習できるようにしました。
実験結果は、NLPタスク、視覚認識タスク、視覚言語タスクなど、幅広いタスクにまたがる動的プロンプトチューニングによって達成される顕著なパフォーマンス改善を裏付けるものである。
さらに,全データ,少数ショット,マルチタスクシナリオ下でのアプローチの普遍的適用性を確立する。
コードはhttps://github.com/xianjun-yang/dptで入手できる。
関連論文リスト
- Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - Exploring the Transferability of Visual Prompting for Multimodal Large Language Models [47.162575147632396]
Transferable Visual Prompting (TVP) は、異なるモデルに転送可能な視覚的プロンプトを生成するためのシンプルで効果的なアプローチである。
本稿では,既存の視覚的プロンプト手法のクロスモデル特徴劣化問題に対処し,学習したプロンプトの伝達可能性を高めるための2つの戦略を提案する。
論文 参考訳(メタデータ) (2024-04-17T09:39:07Z) - ULTRA-DP: Unifying Graph Pre-training with Multi-task Graph Dual Prompt [67.8934749027315]
本稿では,タスク識別と位置識別をGNNに注入する,グラフハイブリッド事前学習のための統合フレームワークを提案する。
また,約$k$-nearest隣人のグループに基づいた,新しい事前学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-23T12:11:13Z) - Distribution-Aware Prompt Tuning for Vision-Language Models [20.02599087680773]
プロンプトチューニングの鍵は、モデルパラメータを固定した学習可能なベクトルを介して、2つのモード間の特徴空間アライメントである。
この観測に触発されて、視覚言語モデルのための分布認識プロンプトチューニング(DAPT)を提案する。
11のベンチマークデータセットに対する実験により,本手法が一般化可能性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-09-06T23:49:11Z) - Multitask Vision-Language Prompt Tuning [103.5967011236282]
マルチタスク視覚言語プロンプトチューニング(MV)を提案する。
MVはクロスタスクの知識を視覚言語モデルの迅速なチューニングに取り入れている。
20個の視覚タスクの結果、提案手法は全ての単一タスクのベースライン・プロンプト・チューニング法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T18:41:44Z) - Prompt Tuning with Soft Context Sharing for Vision-Language Models [42.61889428498378]
本稿では,複数目的の複数ショットタスクにおいて,事前学習した視覚言語モデルを協調的にチューニングする新しい手法を提案する。
我々は,SoftCPTがシングルタスクのプロンプトチューニング方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-08-29T10:19:10Z) - Interactive and Visual Prompt Engineering for Ad-hoc Task Adaptation
with Large Language Models [116.25562358482962]
最先端のニューラルネットワークモデルは、教師付きトレーニングを必要とせずに、アドホックな言語タスクを解決するために使用することができる。
PromptIDEを使えば、ユーザはプロンプトのバリエーションを試すことができ、プロンプトのパフォーマンスを視覚化し、反復的にプロンプトを最適化できる。
論文 参考訳(メタデータ) (2022-08-16T17:17:53Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Towards Unified Prompt Tuning for Few-shot Text Classification [47.71344780587704]
We present the Unified Prompt Tuning (UPT) framework that to improve few-shot text classification for BERT-style model。
UPTでは、異なるNLPタスク間での協調学習のために、新しいパラダイムであるPrompt-Options-Verbalizerを提案する。
また, PLMの一般化能力を向上させるために, 知識向上型選択マスケッド言語モデリングという自己教師型タスクを設計する。
論文 参考訳(メタデータ) (2022-05-11T07:40:45Z) - Making Pre-trained Language Models End-to-end Few-shot Learners with
Contrastive Prompt Tuning [41.15017636192417]
CP-Tuning(CP-Tuning)は、言語モデルのための最初のエンドツーエンドのPrompt Tuningフレームワークである。
完全にトレーニング可能なプロンプトパラメータを持つタスク不変の連続プロンプトエンコーディング技術と統合されている。
IRシステムや異なるPLMで使用される様々な言語理解タスクの実験は、CP-Tuningが最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2022-04-01T02:24:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。