論文の概要: EchoPrompt: Instructing the Model to Rephrase Queries for Improved
In-context Learning
- arxiv url: http://arxiv.org/abs/2309.10687v1
- Date: Sat, 16 Sep 2023 00:55:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 13:52:21.055201
- Title: EchoPrompt: Instructing the Model to Rephrase Queries for Improved
In-context Learning
- Title(参考訳): EchoPrompt: 改善されたインコンテキスト学習のためのクエリのリフレクションモデル
- Authors: Rajasekhar Reddy Mekala, Yasaman Razeghi, Sameer Singh
- Abstract要約: EchoPromptは、モデルに応答する前にクエリをリフレーズするように促す、シンプルで効果的なアプローチです。
実験結果によると、EchoPromptはゼロショットと少数ショットのインコンテキスト学習の両方で大幅に改善されている。
実験結果から,EchoPromptはコンテキスト内学習を向上し,パフォーマンスを向上させるための有効な手法であることがわかった。
- 参考スコア(独自算出の注目度): 18.056200055153536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models primarily rely on incontext learning to execute tasks.
We introduce EchoPrompt, a simple yet effective approach to prompt the model to
rephrase its queries before answering them. EchoPrompt is inspired by
self-questioning, a cognitive strategy humans use to vocalize queries before
providing answers, thereby reducing misconceptions. Experimental results
demonstrate that EchoPrompt leads to substantial improvements in both zero-shot
and few-shot in-context learning with standard and chain-of-thought prompting
on four families of causal language models. These improvements are observed
across various numerical reasoning (GSM8K, SVAMP, MultiArith, SingleOp),
reading comprehension (DROP, SQuAD), and logical reasoning (Shuffled Objects,
Date Understanding, Coin Flipping) tasks. On average, EchoPrompt improves the
Zero-shot-CoT performance of code-davinci-002 by 5% in numerical tasks and 13%
in reading comprehension tasks. We investigate the effectiveness of EchoPrompt
through ablation studies, which reveal the significance of both original and
rephrased queries for EchoPrompt's efficacy. Our empirical results show that
EchoPrompt is an effective technique that can easily augment in-context
learning for better performance.
- Abstract(参考訳): 大規模言語モデルはタスクの実行に主にincontext学習に依存している。
echopromptは、モデルに応答する前にクエリを再現するように促す、シンプルで効果的なアプローチです。
EchoPromptは、人間が答えを提供する前にクエリを音声化する認知戦略であるセルフクエスト(self-questioning)にインスパイアされている。
実験結果から、EchoPromptは、標準およびチェーンオブ思考によるゼロショットと少数ショットのインコンテキスト学習の両方において、4種類の因果言語モデルで大幅に改善されることが示された。
これらの改善は、様々な数値推論(GSM8K、SVAMP、MultiArith、SingleOp)、読み理解(DROP、SQuAD)、論理推論(Shuffled Objects、Date Understanding、Coin Flipping)タスクで観察される。
EchoPromptは平均して、code-davinci-002のZero-shot-CoTパフォーマンスを、数値タスクで5%、理解タスクで13%改善する。
本研究は,エコープロンプトの有効性を明らかにするため,エコープロンプトの有効性について検討した。
実験結果から,EchoPromptはコンテキスト内学習を向上し,パフォーマンスを向上させる効果的な手法であることがわかった。
関連論文リスト
- PALM: Few-Shot Prompt Learning for Audio Language Models [1.6177972328875514]
音声言語モデル(ALM)は近年,ゼロショット音声認識タスクにおいて顕著な成功を収めている。
本稿では,テキストエンコーダブランチの機能空間を最適化する新しい手法であるPrompt Learning in Audio Language Models (PALM)を提案する。
本研究では,11の音声認識データセットに対するアプローチの有効性を実証し,その結果と3つのベースラインを数ショットの学習設定で比較する。
論文 参考訳(メタデータ) (2024-09-29T22:06:07Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - PRE: Vision-Language Prompt Learning with Reparameterization Encoder [24.855142164168605]
CLIPのような訓練済みの大規模な視覚言語モデルは、下流タスクへのゼロショット転送可能性に大きな可能性を証明している。
最適な性能を得るためには、下流画像分布とテキストクラス記述との整合性を改善するために、手動によるプロンプトの選択が必要である。
非自明なプロンプトエンジニアリングを避けるため、最近の作業コンテキスト最適化(CoOp)では、学習可能なテキストトークンを使用して視覚領域にプロンプト学習という概念を導入した。
論文 参考訳(メタデータ) (2023-09-14T14:48:01Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - Prompting classes: Exploring the Power of Prompt Class Learning in
Weakly Supervised Semantic Segmentation [15.467510304266883]
本稿では,プロンプトチューニングが弱教師付きセマンティックセグメンテーションに与える影響について検討する。
PrOmpt cLass lEarning(POLE)戦略に基づく新しいアプローチを提案する。
我々は、よく知られたWSSSベンチマークにおいて、シンプルで効率的なアプローチがSOTA性能を達成することを実証する。
論文 参考訳(メタデータ) (2023-06-30T19:25:18Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Dynamic Prompting: A Unified Framework for Prompt Tuning [33.175097465669374]
本稿では、特定のタスクやインスタンスに基づいて、異なるプロンプトの要因を動的に決定する統合動的プロンプト(DP)チューニング戦略を提案する。
実験結果は、幅広いタスクにわたる動的プロンプトチューニングによって達成された顕著なパフォーマンス改善を裏付けるものである。
我々は、全データ、少数ショット、マルチタスクのシナリオの下で、我々のアプローチの普遍的な適用性を確立する。
論文 参考訳(メタデータ) (2023-03-06T06:04:46Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - CPL: Counterfactual Prompt Learning for Vision and Language Models [76.18024920393245]
本稿では、視覚と言語モデルのための新しいアンダーラインテキストbfCounterfactual underlinetextbfPrompt underlinetextbfLearning (CPL)法を提案する。
CPLは、共同最適化フレームワークにおいて、反ファクト生成とコントラスト学習を同時に採用している。
実験により、CPLは異なるビジョンと言語タスクにおいて優れた数ショットのパフォーマンスを得ることができることが示された。
論文 参考訳(メタデータ) (2022-10-19T08:06:39Z) - Learning to Prompt for Vision-Language Models [82.25005817904027]
視覚言語による事前学習が表現学習の有望な代替手段として登場した。
画像と離散ラベルを使って、視覚的な概念と見なされる一連の重みを学習する伝統から、2つの異なるエンコーダのための画像と生のテキストの整列へと移行する。
このようなパラダイムは、より広範な監視源の恩恵を受け、下流タスクへのゼロショット転送を可能にします。
論文 参考訳(メタデータ) (2021-09-02T17:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。