論文の概要: PromptFlow: Training Prompts Like Neural Networks
- arxiv url: http://arxiv.org/abs/2510.12246v1
- Date: Tue, 14 Oct 2025 07:56:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.232086
- Title: PromptFlow: Training Prompts Like Neural Networks
- Title(参考訳): PromptFlow: ニューラルネットワークのようなプロンプトのトレーニング
- Authors: Jingyi Wang, Hongyuan Zhu, Ye Niu, Yunhui Deng,
- Abstract要約: 大規模言語モデル(LLM)は自然言語処理(NLP)タスクに大きな影響を与えている。
プロンプトエンジニアリングの最近の進歩は、広範囲な再訓練に代わる有望な代替手段を提供する。
本稿では,メタプロンプト,演算子,最適化,評価器にインスパイアされたモジュール型トレーニングフレームワークであるPromptFlowを提案する。
- 参考スコア(独自算出の注目度): 17.90494213352502
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated profound impact on Natural Language Processing (NLP) tasks. However, their effective deployment across diverse domains often require domain-specific adaptation strategies, as generic models may underperform when faced with specialized data distributions. Recent advances in prompt engineering (PE) offer a promising alternative to extensive retraining by refining input instructions to align LLM outputs with task objectives. This paradigm has emerged as a rapid and versatile approach for model fine-tuning. Despite its potential, manual prompt design remains labor-intensive and heavily depends on specialized expertise, often requiring iterative human effort to achieve optimal formulations. To address this limitation, automated prompt engineering methodologies have been developed to systematically generate task-specific prompts. However, current implementations predominantly employ static update rules and lack mechanisms for dynamic strategy selection, resulting in suboptimal adaptation to varying NLP task requirements. Furthermore, most methods treat and update the whole prompts at each step, without considering editing prompt sections at a finer granularity. At last, in particular, the problem of how to recycle experience in LLM is still underexplored. To this end, we propose the PromptFlow, a modular training framework inspired by TensorFlow, which integrates meta-prompts, operators, optimization, and evaluator. Our framework can be equipped with the latest optimization methods and autonomously explores optimal prompt refinement trajectories through gradient-based meta-learning, requiring minimal task-specific training data. Specifically, we devise a reinforcement learning method to recycle experience for LLM in the PE process. Finally, we conduct extensive experiments on various datasets, and demonstrate the effectiveness of PromptFlow.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理(NLP)タスクに大きな影響を与えている。
しかしながら、様々なドメインにまたがる効果的なデプロイメントにはドメイン固有の適応戦略が必要になることが多い。
近年のプロンプトエンジニアリング(PE)の進歩は、LLM出力をタスク目標に合わせるために入力命令を精算することで、広範囲なリトレーニングに代わる有望な代替手段を提供する。
このパラダイムは、モデル微調整のための迅速で汎用的なアプローチとして登場した。
その可能性にもかかわらず、手動のプロンプトデザインは労働集約的であり、しばしば最適な定式化を達成するために反復的な人間の努力を必要とする特別な専門知識に大きく依存している。
この制限に対処するため、タスク固有のプロンプトを体系的に生成する自動プロンプトエンジニアリング手法が開発されている。
しかし、現在の実装では静的な更新規則と動的戦略選択のメカニズムが欠如しており、それによって様々なNLPタスク要求に最適化される。
さらに、ほとんどのメソッドは、プロンプトセクションをより細かい粒度で編集することなく、各ステップでプロンプト全体を処理し、更新する。
最終的に、LLMでの体験をリサイクルする方法の問題は、まだ未解決のままである。
この目的のために、TensorFlowにインスパイアされたモジュール型トレーニングフレームワークであるPromptFlowを提案し、メタプロンプト、演算子、最適化、評価器を統合する。
我々のフレームワークには最新の最適化手法が組み込まれており、グラデーションベースのメタラーニングを通じて最適な即時改善軌道を自律的に探索し、最小限のタスク固有のトレーニングデータを必要とする。
具体的には, PE プロセスにおける LLM のリサイクル経験を再現するための強化学習法を提案する。
最後に,様々なデータセットについて広範な実験を行い,PromptFlowの有効性を実証する。
関連論文リスト
- Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [65.18157595903124]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - Prompt Tuning with Diffusion for Few-Shot Pre-trained Policy Generalization [55.14484317645865]
我々は,オフライン強化学習タスクにおいて,例外的な品質向上を促す条件拡散モデルを構築した。
本稿では,Promptディフューザがプロンプトチューニングプロセスの堅牢かつ効果的なツールであることを示し,メタRLタスクにおいて高い性能を示す。
論文 参考訳(メタデータ) (2024-11-02T07:38:02Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Towards Hierarchical Multi-Agent Workflows for Zero-Shot Prompt Optimization [19.200989737492595]
大規模言語モデル(LLM)は、ユーザの質問に答える上で大きな進歩を見せている。
LLMの出力の品質はプロンプト設計に大きく依存しており、優れたプロンプトによってLLMが非常に難しい問題に正しく答えられる可能性がある。
LLMの階層構造を提案し、まず、正確な指示と正確な単語を階層的に生成し、次に、このプロンプトを用いてユーザクエリの最終回答を生成する。
論文 参考訳(メタデータ) (2024-05-30T17:05:45Z) - Large Language Model Agent as a Mechanical Designer [7.136205674624813]
本研究では、FEMモジュールと協調して事前訓練された大規模言語モデル(LLM)を利用して、構造設計を自律的に生成、評価、洗練するフレームワークを提案する。
LLMはドメイン固有の微調整なしで動作し、設計候補を提案し、FEMから派生した性能指標を解釈し、構造的な音響修正を適用する。
NSGA-II (Non-Sorting Genetic Algorithm II) と比較して,本手法はより高速に収束し,より少ないFEM評価を実現する。
論文 参考訳(メタデータ) (2024-04-26T16:41:24Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。