論文の概要: PIAST: Rapid Prompting with In-context Augmentation for Scarce Training data
- arxiv url: http://arxiv.org/abs/2512.11013v1
- Date: Thu, 11 Dec 2025 16:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.521826
- Title: PIAST: Rapid Prompting with In-context Augmentation for Scarce Training data
- Title(参考訳): PIAST:スカーストレーニングデータのインコンテキスト拡張によるラピッドプロンプト
- Authors: Pawel Batorski, Paul Swoboda,
- Abstract要約: 本稿では,人間の指示を補足する高速自動プロンプト構築アルゴリズムを提案する。
提案手法は,モンテカルロ・シャプリーによる実例の有効性推定を用いて,複数ショットの例を反復的に置き換え/ドロップ/キープする。
提案手法は, 徹底的な命令探索ではなく, より高速でデータ効率のよいプロンプト工学における主要なレバーであることを示す。
- 参考スコア(独自算出の注目度): 13.775690509818753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLMs are highly sensitive to prompt design, but handcrafting effective prompts is difficult and often requires intricate crafting of few-shot examples. We propose a fast automatic prompt construction algorithm that augments human instructions by generating a small set of few shot examples. Our method iteratively replaces/drops/keeps few-shot examples using Monte Carlo Shapley estimation of example utility. For faster execution, we use aggressive subsampling and a replay buffer for faster evaluations. Our method can be run using different compute time budgets. On a limited budget, we outperform existing automatic prompting methods on text simplification and GSM8K and obtain second best results on classification and summarization. With an extended, but still modest compute budget we set a new state of the art among automatic prompting methods on classification, simplification and GSM8K. Our results show that carefully constructed examples, rather than exhaustive instruction search, are the dominant lever for fast and data efficient prompt engineering. Our code is available at https://github.com/Batorskq/PIAST.
- Abstract(参考訳): LLMはプロンプト設計に非常に敏感であるが、手作りの効果的なプロンプトは困難であり、しばしば数発の複雑な実例を必要とする。
本稿では,人間の指示を補足する高速自動プロンプト構築アルゴリズムを提案する。
提案手法は,モンテカルロ・シャプリーによる実例の有効性評価を用いて,複数ショットの例を反復的に置き換え/ドロップ/キープする。
より高速な実行には、アグレッシブなサブサンプリングとリプレイバッファを使用し、より高速な評価を行う。
我々の方法は異なる計算時間予算で実行できる。
限られた予算で、テキストの単純化とGSM8Kにおける既存の自動プロンプト手法より優れており、分類と要約において2番目に良い結果が得られる。
拡張された、しかしまだ控えめな計算予算では、分類、単純化、GSM8Kに関する自動プロンプト手法の中で、新しい最先端の手法を設定しました。
提案手法は, 徹底的な命令探索ではなく, より高速でデータ効率のよいプロンプト工学における主要なレバーであることを示す。
私たちのコードはhttps://github.com/Batorskq/PIASTで公開されています。
関連論文リスト
- Achieving More with Less: Additive Prompt Tuning for Rehearsal-Free Class-Incremental Learning [76.32953653161417]
クラス増分学習は、モデルが学習したクラスの知識を保持しながら、新しいクラスを段階的に学習することを可能にする。
この分野での最近の進歩はパラメータ効率のよい微調整技術へと移行している。
本稿では,現在のアプローチの限界に対処する新しいプロンプトベースのアプローチを提案する。
論文 参考訳(メタデータ) (2025-03-11T02:27:37Z) - Large Language Models Prompting With Episodic Memory [53.8690170372303]
本稿では,POEM(PrOmpting with Episodic Memory)を提案する。
テストフェーズでは、各テストクエリのサンプルのシーケンスを最適化し、エピソードメモリにおけるトップkで最も類似したトレーニング例から最も高い合計報酬を得るシーケンスを選択する。
その結果,POEMはテキスト分類タスクにおいてTEMPERAやRLPromptといった最近の技術よりも5.3%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-14T11:19:28Z) - Task Facet Learning: A Structured Approach to Prompt Optimization [13.423478909210353]
本稿では,タスクの複数の面をトレーニング例から学習するアルゴリズムを提案する。
提案アルゴリズムであるUniPromptは、入力空間をクラスタ化し、クラスタ化されたバッチを使用する。
複数のデータセットと実世界のタスクに対する経験的評価は、ショートネームを用いて生成されたプロンプトが、人間のチューニングしたプロンプトと最先端の手法によるプロンプトよりも高い精度が得られることを示している。
論文 参考訳(メタデータ) (2024-06-15T04:54:26Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.82812214830023]
効率的なプロンプティング手法は幅広い注目を集めている。
本稿では,異なるプロンプト成分に対する自動プロンプトエンジニアリングと連続空間および離散空間におけるプロンプト圧縮について論じる。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - PRewrite: Prompt Rewriting with Reinforcement Learning [23.120358549806127]
より効率的なプロンプトに最適化されていないプロンプトを書き換える自動化手法であるPRewriteを提案する。
我々は、PRewriteの有効性を示す様々なベンチマークデータセットの実験を行う。
論文 参考訳(メタデータ) (2024-01-16T08:04:50Z) - Automatic Prompt Optimization with "Gradient Descent" and Beam Search [64.08364384823645]
大きな言語モデル(LLM)は汎用エージェントとして優れたパフォーマンスを示しているが、その能力はプロンプトに大きく依存している。
この問題に対する単純で非パラメトリックな解である自動プロンプト最適化(APO)を提案する。
APOはデータのミニバッチを使用して、現在のプロンプトを批判する自然言語「段階的」を形成する。
次に、勾配の反対の意味方向のプロンプトを編集することで、勾配をプロンプトに「伝播」する。
論文 参考訳(メタデータ) (2023-05-04T15:15:22Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。