論文の概要: Promptomatix: An Automatic Prompt Optimization Framework for Large Language Models
- arxiv url: http://arxiv.org/abs/2507.14241v3
- Date: Thu, 24 Jul 2025 21:49:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 12:12:30.191793
- Title: Promptomatix: An Automatic Prompt Optimization Framework for Large Language Models
- Title(参考訳): Promptomatix: 大規模言語モデルのための自動プロンプト最適化フレームワーク
- Authors: Rithesh Murthy, Ming Zhu, Liangwei Yang, Jielin Qiu, Juntao Tan, Shelby Heinecke, Caiming Xiong, Silvio Savarese, Huan Wang,
- Abstract要約: LLM(Large Language Models)は、巧妙なプロンプトで最高の性能を発揮するが、プロンプトは手動で、一貫性がなく、非専門家にはアクセスできない。
Promptomatixは、手作業のチューニングやドメインの専門知識を必要とせずに、自然言語のタスク記述を高品質なプロンプトに変換する。
システムは、ユーザ意図を分析し、合成トレーニングデータを生成し、プロンプト戦略を選択し、コストを意識した目標を使用してプロンプトを洗練する。
- 参考スコア(独自算出の注目度): 72.4723784999432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) perform best with well-crafted prompts, yet prompt engineering remains manual, inconsistent, and inaccessible to non-experts. We introduce Promptomatix, an automatic prompt optimization framework that transforms natural language task descriptions into high-quality prompts without requiring manual tuning or domain expertise. Promptomatix supports both a lightweight meta-prompt-based optimizer and a DSPy-powered compiler, with modular design enabling future extension to more advanced frameworks. The system analyzes user intent, generates synthetic training data, selects prompting strategies, and refines prompts using cost-aware objectives. Evaluated across 5 task categories, Promptomatix achieves competitive or superior performance compared to existing libraries, while reducing prompt length and computational overhead making prompt optimization scalable and efficient.
- Abstract(参考訳): LLM(Large Language Models)は、巧妙なプロンプトで最高の性能を発揮するが、プロンプトは手動で、一貫性がなく、非専門家にはアクセスできない。
Promptomatixは、自然言語のタスク記述を手動チューニングやドメインの専門知識を必要とせずに高品質なプロンプトに変換する自動プロンプト最適化フレームワークである。
Promptomatixは軽量メタプロンプトベースのオプティマイザとDSPyベースのコンパイラの両方をサポートする。
このシステムは、ユーザ意図を分析し、合成トレーニングデータを生成し、プロンプト戦略を選択し、コストを意識した目標を用いてプロンプトを洗練する。
Promptomatixは5つのタスクカテゴリで評価され、既存のライブラリと比較して、競争力や優れたパフォーマンスを実現している。
関連論文リスト
- Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - ORPP: Self-Optimizing Role-playing Prompts to Enhance Language Model Capabilities [64.24517317344959]
複雑なタスクにおいて、大きな言語モデルから優れたパフォーマンスを引き出すためには、高品質なプロンプトが不可欠である。
本稿では,ロールプレイングプロンプトの最適化と生成によりモデル性能を向上させるフレームワークORPPを提案する。
ORPPは一致しただけでなく、ほとんどの場合、性能の点で既存の主流のプロンプト最適化手法を上回ります。
論文 参考訳(メタデータ) (2025-06-03T05:51:35Z) - SIPDO: Closed-Loop Prompt Optimization via Synthetic Data Feedback [17.851957960438483]
SIPDO(Self-Improving Prompts through Data-Augmented Optimization)は,素早い学習のためのクローズドループフレームワークである。
SIPDOは、合成データジェネレータとプロンプトを結合し、ジェネレータは、現在のプロンプトの弱点を明らかにし、応答時のプロンプトを洗練する新しい例を生成する。
このフィードバック駆動ループは、外部の監視や新しいタスクへのアクセスを前提とせずに、迅速なパフォーマンスの体系的な改善を可能にする。
論文 参考訳(メタデータ) (2025-05-26T04:56:48Z) - A Sequential Optimal Learning Approach to Automated Prompt Engineering in Large Language Models [14.483240353801074]
本稿では,自動プロンプトエンジニアリングのための最適学習フレームワークを提案する。
限られた評価予算を効率的に割り当てつつ、効果的なプロンプト機能を逐次識別するように設計されている。
私たちのフレームワークは、より広い範囲のアプリケーションに自動プロンプトエンジニアリングをデプロイするためのソリューションを提供します。
論文 参考訳(メタデータ) (2025-01-07T03:51:10Z) - iPrOp: Interactive Prompt Optimization for Large Language Models with a Human in the Loop [10.210078164737245]
$textitiPrOp$は、インタラクティブなプロンプト最適化アプローチである。
最適化プロセスにおける人間のエンゲージメントを高めるためのタスク固有のガイダンスをユーザに提供することを目的としている。
論文 参考訳(メタデータ) (2024-12-17T08:09:15Z) - GReaTer: Gradients over Reasoning Makes Smaller Language Models Strong Prompt Optimizers [52.17222304851524]
本稿では,タスク固有の推論よりも勾配情報を直接組み込む新しいプロンプト最適化手法であるGReaTerを紹介する。
GReaTerはタスク損失勾配を利用して、オープンソースの軽量言語モデルのためのプロンプトの自己最適化を可能にする。
GReaTerは、従来の最先端のプロンプト最適化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2024-12-12T20:59:43Z) - PromptWizard: Task-Aware Prompt Optimization Framework [2.618253052454435]
大規模言語モデル(LLM)は、さまざまなドメインでAIを変換している。
手動プロンプトエンジニアリングは、労働集約的かつドメイン固有である。
本稿では、離散的なプロンプト最適化のための新しい完全に自動化されたフレームワークであるPromptWizardを紹介する。
論文 参考訳(メタデータ) (2024-05-28T17:08:31Z) - Symbolic Prompt Program Search: A Structure-Aware Approach to Efficient Compile-Time Prompt Optimization [14.012833238074332]
本稿では,プロンプトプログラムのコンパイル時最適化を行うSAMMOを紹介する。
SAMMOは記号レベルでプロンプトプログラムを表しており、豊富な変換が可能である。
SAMMOは,(1)命令チューニング,(2)RAGパイプラインチューニング,(3)プロンプト圧縮において,従来の手法を一般化し,複雑なプロンプトの性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-04-02T21:35:54Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.82812214830023]
効率的なプロンプティング手法は幅広い注目を集めている。
本稿では,異なるプロンプト成分に対する自動プロンプトエンジニアリングと連続空間および離散空間におけるプロンプト圧縮について論じる。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - Intent-based Prompt Calibration: Enhancing prompt optimization with
synthetic boundary cases [2.6159111710501506]
本稿では,ユーザ意図に対するプロンプトを反復的に洗練するキャリブレーションプロセスを用いて,自動プロンプトエンジニアリングの新しい手法を提案する。
我々は,モデレーションや生成といった現実的なタスクにおいて,強力なプロプライエタリなモデルに対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-02-05T15:28:43Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。