論文の概要: EchoPrompt: Instructing the Model to Rephrase Queries for Improved
In-context Learning
- arxiv url: http://arxiv.org/abs/2309.10687v2
- Date: Fri, 13 Oct 2023 03:38:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 17:06:45.787540
- Title: EchoPrompt: Instructing the Model to Rephrase Queries for Improved
In-context Learning
- Title(参考訳): EchoPrompt: 改善されたインコンテキスト学習のためのクエリのリフレクションモデル
- Authors: Rajasekhar Reddy Mekala, Yasaman Razeghi, Sameer Singh
- Abstract要約: EchoPromptは単純だが効果的なアプローチで、モデルに応答する前にクエリをリフレッシュする。
EchoPromptは、標準とチェーンのプロンプトを備えたゼロショットと少数ショットのインコンテキスト学習の両方に対応している。
実験の結果,EchoPromptは文脈内学習性能を向上させる効果的な手法であることがわかった。
- 参考スコア(独自算出の注目度): 18.056200055153536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Language models are achieving impressive performance on various tasks by
aggressively adopting inference-time prompting techniques, such as zero-shot
and few-shot prompting. In this work, we introduce EchoPrompt, a simple yet
effective approach that prompts the model to rephrase its queries before
answering them. EchoPrompt is adapted for both zero-shot and few-shot
in-context learning with standard and chain-of-thought prompting. Experimental
results show that EchoPrompt yields substantial improvements across all these
settings for four families of causal language models. These improvements are
observed across various numerical reasoning (e.g. GSM8K, SVAMP), reading
comprehension (e.g. DROP), and logical reasoning (e.g. Coin Flipping) tasks. On
average, EchoPrompt improves the Zero-shot-CoT performance of code-davinci-002
by 5% in numerical tasks and 13% in reading comprehension tasks. We investigate
the factors contributing to EchoPrompt's effectiveness through ablation
studies, which reveal that both the original query and the model-generated
rephrased version are instrumental in its performance gains. Our empirical
results indicate that EchoPrompt is an effective technique that enhances
in-context learning performance. We recommend incorporating EchoPrompt into
various baseline prompting strategies to achieve performance boosts.
- Abstract(参考訳): ゼロショットや少数ショットプロンプトといった推論時間プロンプト手法を積極的に採用することで、言語モデルはさまざまなタスクで印象的なパフォーマンスを達成しています。
本研究では,EchoPromptを提案する。これはシンプルだが効果的なアプローチで,モデルに応答する前にクエリをリフレッシュする。
EchoPromptは、標準とチェーンのプロンプトを備えたゼロショットと少数ショットのインコンテキスト学習の両方に対応している。
実験結果から,EchoPromptは4種類の因果言語モデルに対して,これらすべての設定に対して大幅な改善をもたらすことが示された。
これらの改善は、様々な数値推論(GSM8K、SVAMPなど)、読み理解(DROPなど)、論理推論(Coin Flippingなど)のタスクで観察される。
EchoPromptは平均して、code-davinci-002のZero-shot-CoTパフォーマンスを、数値タスクで5%、理解タスクで13%改善する。
本研究は,echopromptの有効性に寄与する要因をアブレーション研究を通じて検討し,原クエリとモデル生成版の両方が性能向上に寄与することを示す。
実験の結果,EchoPromptは文脈内学習性能を向上させる効果的な手法であることがわかった。
パフォーマンス向上を達成するために、さまざまなベースラインプロンプト戦略にechopromptを統合することを推奨する。
関連論文リスト
- PALM: Few-Shot Prompt Learning for Audio Language Models [1.6177972328875514]
音声言語モデル(ALM)は近年,ゼロショット音声認識タスクにおいて顕著な成功を収めている。
本稿では,テキストエンコーダブランチの機能空間を最適化する新しい手法であるPrompt Learning in Audio Language Models (PALM)を提案する。
本研究では,11の音声認識データセットに対するアプローチの有効性を実証し,その結果と3つのベースラインを数ショットの学習設定で比較する。
論文 参考訳(メタデータ) (2024-09-29T22:06:07Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - PRE: Vision-Language Prompt Learning with Reparameterization Encoder [24.855142164168605]
CLIPのような訓練済みの大規模な視覚言語モデルは、下流タスクへのゼロショット転送可能性に大きな可能性を証明している。
最適な性能を得るためには、下流画像分布とテキストクラス記述との整合性を改善するために、手動によるプロンプトの選択が必要である。
非自明なプロンプトエンジニアリングを避けるため、最近の作業コンテキスト最適化(CoOp)では、学習可能なテキストトークンを使用して視覚領域にプロンプト学習という概念を導入した。
論文 参考訳(メタデータ) (2023-09-14T14:48:01Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Prompting classes: Exploring the Power of Prompt Class Learning in
Weakly Supervised Semantic Segmentation [15.467510304266883]
本稿では,プロンプトチューニングが弱教師付きセマンティックセグメンテーションに与える影響について検討する。
PrOmpt cLass lEarning(POLE)戦略に基づく新しいアプローチを提案する。
我々は、よく知られたWSSSベンチマークにおいて、シンプルで効率的なアプローチがSOTA性能を達成することを実証する。
論文 参考訳(メタデータ) (2023-06-30T19:25:18Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Dynamic Prompting: A Unified Framework for Prompt Tuning [33.175097465669374]
本稿では、特定のタスクやインスタンスに基づいて、異なるプロンプトの要因を動的に決定する統合動的プロンプト(DP)チューニング戦略を提案する。
実験結果は、幅広いタスクにわたる動的プロンプトチューニングによって達成された顕著なパフォーマンス改善を裏付けるものである。
我々は、全データ、少数ショット、マルチタスクのシナリオの下で、我々のアプローチの普遍的な適用性を確立する。
論文 参考訳(メタデータ) (2023-03-06T06:04:46Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - CPL: Counterfactual Prompt Learning for Vision and Language Models [76.18024920393245]
本稿では、視覚と言語モデルのための新しいアンダーラインテキストbfCounterfactual underlinetextbfPrompt underlinetextbfLearning (CPL)法を提案する。
CPLは、共同最適化フレームワークにおいて、反ファクト生成とコントラスト学習を同時に採用している。
実験により、CPLは異なるビジョンと言語タスクにおいて優れた数ショットのパフォーマンスを得ることができることが示された。
論文 参考訳(メタデータ) (2022-10-19T08:06:39Z) - Learning to Prompt for Vision-Language Models [82.25005817904027]
視覚言語による事前学習が表現学習の有望な代替手段として登場した。
画像と離散ラベルを使って、視覚的な概念と見なされる一連の重みを学習する伝統から、2つの異なるエンコーダのための画像と生のテキストの整列へと移行する。
このようなパラダイムは、より広範な監視源の恩恵を受け、下流タスクへのゼロショット転送を可能にします。
論文 参考訳(メタデータ) (2021-09-02T17:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。