論文の概要: Interactive and Visual Prompt Engineering for Ad-hoc Task Adaptation
with Large Language Models
- arxiv url: http://arxiv.org/abs/2208.07852v1
- Date: Tue, 16 Aug 2022 17:17:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:12:13.293942
- Title: Interactive and Visual Prompt Engineering for Ad-hoc Task Adaptation
with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたアドホックタスク適応のためのインタラクティブおよびビジュアルプロンプトエンジニアリング
- Authors: Hendrik Strobelt, Albert Webson, Victor Sanh, Benjamin Hoover, Johanna
Beyer, Hanspeter Pfister, and Alexander M. Rush
- Abstract要約: 最先端のニューラルネットワークモデルは、教師付きトレーニングを必要とせずに、アドホックな言語タスクを解決するために使用することができる。
PromptIDEを使えば、ユーザはプロンプトのバリエーションを試すことができ、プロンプトのパフォーマンスを視覚化し、反復的にプロンプトを最適化できる。
- 参考スコア(独自算出の注目度): 116.25562358482962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art neural language models can now be used to solve ad-hoc
language tasks through zero-shot prompting without the need for supervised
training. This approach has gained popularity in recent years, and researchers
have demonstrated prompts that achieve strong accuracy on specific NLP tasks.
However, finding a prompt for new tasks requires experimentation. Different
prompt templates with different wording choices lead to significant accuracy
differences. PromptIDE allows users to experiment with prompt variations,
visualize prompt performance, and iteratively optimize prompts. We developed a
workflow that allows users to first focus on model feedback using small data
before moving on to a large data regime that allows empirical grounding of
promising prompts using quantitative measures of the task. The tool then allows
easy deployment of the newly created ad-hoc models. We demonstrate the utility
of PromptIDE (demo at http://prompt.vizhub.ai) and our workflow using several
real-world use cases.
- Abstract(参考訳): 最先端のニューラルネットワークモデルは、教師付きトレーニングなしでゼロショットプロンプトによって、アドホックな言語タスクを解決するために使用することができる。
このアプローチは近年普及しており、研究者は特定のNLPタスクに対して高い精度を達成するプロンプトを証明している。
しかし、新しいタスクのプロンプトを見つけるには実験が必要です。
異なる単語選択の異なるプロンプトテンプレートは、かなりの精度の違いをもたらす。
PromptIDEを使えば、ユーザはプロンプトのバリエーションを試すことができ、プロンプトのパフォーマンスを視覚化し、繰り返しプロンプトを最適化できる。
我々は、ユーザがまず小さなデータを使ってモデルフィードバックにフォーカスするワークフローを開発し、次にタスクの定量的測定を用いて、有望なプロンプトを実証的にグラウンドディングできる大規模なデータ体制に移行した。
このツールを使うと、新しく作成されたアドホックモデルのデプロイが容易になる。
我々は,PromptIDE(http://prompt.vizhub.ai.demo)と実世界のいくつかのユースケースを用いたワークフローの有用性を実演する。
関連論文リスト
- Has My System Prompt Been Used? Large Language Model Prompt Membership Inference [56.20586932251531]
Prompt Detectiveは,システムプロンプトがサードパーティの言語モデルによって使用されているかどうかを確実に判断する統計手法である。
我々の研究は、システムの小さな変更でさえ、異なる応答分布に現れ、統計的に意味のある迅速な使用を検証できることを明らかにした。
論文 参考訳(メタデータ) (2025-02-14T08:00:42Z) - Helping Language Models Learn More: Multi-dimensional Task Prompt for
Few-shot Tuning [36.14688633670085]
本稿では,タスク関連オブジェクト,要約,タスク記述情報に基づく多次元タスクプロンプト学習手法MTPromptを提案する。
提案するMTPromptは,適切なプロンプトを自動構築し,検索することで,いくつかのサンプル設定と5つの異なるデータセットに対して最適な結果が得られる。
論文 参考訳(メタデータ) (2023-12-13T10:00:44Z) - Exploring Effective Factors for Improving Visual In-Context Learning [56.14208975380607]
In-Context Learning(ICL)は、いくつかのデモ(別名プロンプト)を通じて新しいタスクを理解し、モデルをチューニングせずに新しい入力を予測することである。
本稿では,視覚的文脈学習の推論性能に直接的な影響を及ぼす要因として,迅速な選択と迅速な融合があげられる。
視覚的インコンテキスト学習のためのシンプルなフレームワークプロンプトSelFを提案する。
論文 参考訳(メタデータ) (2023-04-10T17:59:04Z) - Dynamic Prompting: A Unified Framework for Prompt Tuning [33.175097465669374]
本稿では、特定のタスクやインスタンスに基づいて、異なるプロンプトの要因を動的に決定する統合動的プロンプト(DP)チューニング戦略を提案する。
実験結果は、幅広いタスクにわたる動的プロンプトチューニングによって達成された顕著なパフォーマンス改善を裏付けるものである。
我々は、全データ、少数ショット、マルチタスクのシナリオの下で、我々のアプローチの普遍的な適用性を確立する。
論文 参考訳(メタデータ) (2023-03-06T06:04:46Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - STPrompt: Semantic-guided and Task-driven prompts for Effective Few-shot
Classification [5.6205035780719275]
本稿ではSTPrompt-Semantic-GuidedおよびTask-driven Promptモデルを提案する。
提案モデルでは,テキスト分類タスクの5つの異なるデータセットにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-29T04:42:30Z) - Bayesian Prompt Learning for Image-Language Model Generalization [64.50204877434878]
我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
論文 参考訳(メタデータ) (2022-10-05T17:05:56Z) - Few-shot Prompting Towards Controllable Response Generation [49.479958672988566]
まず,モデルのパラメータにアクセスすることなく,モデル生成に対するプロンプトと強化学習(RL)の組み合わせについて検討した。
マルチタスク学習を適用して、モデルが新しいタスクをより良く一般化できるようにします。
実験の結果,提案手法はパラメータにアクセスすることなく,複数のSOTA(State-of-the-art)対話モデルを制御することができることがわかった。
論文 参考訳(メタデータ) (2022-06-08T14:48:06Z) - Prompt Programming for Large Language Models: Beyond the Few-Shot
Paradigm [0.0]
自然言語のレンズを通してプロンプトを考えることの有用性を強調しながら,プロンプトプログラミングの手法について論じる。
モデルに種を付けて、さまざまなタスクのための独自の自然言語プロンプトを生成するメタプロンプトのアイデアを紹介します。
論文 参考訳(メタデータ) (2021-02-15T05:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。