論文の概要: TATRA: Training-Free Instance-Adaptive Prompting Through Rephrasing and Aggregation
- arxiv url: http://arxiv.org/abs/2603.03298v1
- Date: Fri, 06 Feb 2026 19:20:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.122753
- Title: TATRA: Training-Free Instance-Adaptive Prompting Through Rephrasing and Aggregation
- Title(参考訳): TATRA:リフレッシュとアグリゲーションによる学習不要なインスタンス適応型プロンプト
- Authors: Bartosz Dziuba, Kacper Kuchta, Paweł Batorski, Przemysław Spurek, Paul Swoboda,
- Abstract要約: 大きな言語モデル(LLM)は大幅に改善されているが、その振舞いは表現の速さに非常に敏感である。
本稿では,インスタンス固有の少数ショットプロンプトを構成するデータセットフリープロンプトであるTATRAを紹介する。
数学的推論ベンチマークでは、TATRAはGSM8KとDeepMathで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 10.52527481709651
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have improved substantially alignment, yet their behavior remains highly sensitive to prompt phrasing. This brittleness has motivated automated prompt engineering, but most existing methods (i) require a task-specific training set, (ii) rely on expensive iterative optimization to produce a single dataset-level prompt, and (iii) must be rerun from scratch for each new task. We introduce TATRA, a dataset-free prompting method that constructs instance-specific few-shot prompts by synthesizing on-the-fly examples to accompany a user-provided instruction. TATRA requires no labeled training data and avoids task-specific optimization loops, while retaining the benefits of demonstration-based prompting. Across standard text classification benchmarks, TATRA matches or improves over strong prompt-optimization baselines that depend on training data and extensive search. On mathematical reasoning benchmarks, TATRA achieves state-of-the-art performance on GSM8K and DeepMath, outperforming methods that explicitly optimize prompts on those tasks. Our results suggest that per-instance construction of effective in-context examples is more important than running long, expensive optimization loops to produce a single prompt per task. We will make all code publicly available upon acceptance of the paper. Code is available at https://github.com/BMD223/TATRA
- Abstract(参考訳): 大きな言語モデル(LLM)は大幅に改善されているが、その振舞いは表現の速さに非常に敏感である。
この脆さは自動プロンプトエンジニアリングの動機となったが、ほとんどの既存手法はそうである。
(i)タスク固有のトレーニングセットが必要である。
(ii) 単一のデータセットレベルのプロンプトを生成するために、高価な反復最適化に頼る。
(三)新作業ごとに一からやり直さなければならない。
本稿では,ユーザが提供する命令に付随するオンザフライ例を合成することにより,インスタンス固有の少数ショットプロンプトを構成する,データセットフリーなプロンプト手法であるTATRAを紹介する。
TATRAはラベル付きトレーニングデータを必要としないため、デモベースのプロンプトのメリットを維持しながら、タスク固有の最適化ループを回避する。
標準的なテキスト分類ベンチマーク全体において、TATRAはトレーニングデータと広範囲な検索に依存する強力なプロンプト最適化ベースラインにマッチまたは改善する。
数学的推論のベンチマークでは、TATRAはGSM8KとDeepMathの最先端のパフォーマンスを達成する。
提案手法は,タスク毎に1つのプロンプトを生成するために,長い,高価な最適化ループを実行するよりも,効果的なインコンテキスト例のインスタンス間構築が重要であることを示唆する。
論文を受理したら、すべてのコードを公開します。
コードはhttps://github.com/BMD223/TATRAで公開されている。
関連論文リスト
- Improving Alignment Between Human and Machine Codes: An Empirical Assessment of Prompt Engineering for Construct Identification in Psychology [0.0]
本稿では,テキスト中のコンストラクタをインシデントエンジニアリングで識別するために,インシデント性能を最適化するための実証的フレームワークを提案する。
提案手法は,コードブックによる経験的プロンプト選択,自動プロンプトエンジニアリング,ペルソナプロンプト,チェーンオブ思考推論,説明的プロンプトという5つのプロンプト戦略を実験的に評価した。
3つの構成と2つのモデルで、分類は専門家の判断に最も適しており、コードブックに誘導された経験的プロンプト選択と自動プロンプトエンジニアリングを組み合わせた数発のプロンプトから生まれた。
論文 参考訳(メタデータ) (2025-12-03T14:07:42Z) - Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - Large Language Models Prompting With Episodic Memory [53.8690170372303]
本稿では,POEM(PrOmpting with Episodic Memory)を提案する。
テストフェーズでは、各テストクエリのサンプルのシーケンスを最適化し、エピソードメモリにおけるトップkで最も類似したトレーニング例から最も高い合計報酬を得るシーケンスを選択する。
その結果,POEMはテキスト分類タスクにおいてTEMPERAやRLPromptといった最近の技術よりも5.3%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-14T11:19:28Z) - Task Facet Learning: A Structured Approach to Prompt Optimization [13.423478909210353]
本稿では,タスクの複数の面をトレーニング例から学習するアルゴリズムを提案する。
提案アルゴリズムであるUniPromptは、入力空間をクラスタ化し、クラスタ化されたバッチを使用する。
複数のデータセットと実世界のタスクに対する経験的評価は、ショートネームを用いて生成されたプロンプトが、人間のチューニングしたプロンプトと最先端の手法によるプロンプトよりも高い精度が得られることを示している。
論文 参考訳(メタデータ) (2024-06-15T04:54:26Z) - TEMPERA: Test-Time Prompting via Reinforcement Learning [57.48657629588436]
強化学習(TEMPERA)を用いたテスト時間プロンプト編集を提案する。
従来のプロンプト生成手法とは対照的に、TEMPERAは事前知識を効率的に活用することができる。
本手法は従来の微調整法と比較して試料効率の平均改善率を5.33倍に向上させる。
論文 参考訳(メタデータ) (2022-11-21T22:38:20Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。