論文の概要: LatentPrompt: Optimizing Promts in Latent Space
- arxiv url: http://arxiv.org/abs/2508.02452v1
- Date: Mon, 04 Aug 2025 14:17:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.37462
- Title: LatentPrompt: Optimizing Promts in Latent Space
- Title(参考訳): LatentPrompt: 潜時空間におけるプロムト最適化
- Authors: Mateusz Bystroński, Grzegorz Piotrowski, Nitesh V. Chawla, Tomasz Kajdanowicz,
- Abstract要約: 本稿では,迅速な最適化のためのモデルに依存しないフレームワークであるLatentPromptを紹介する。
提案手法は,連続的な潜伏空間にシードプロンプトを埋め込み,タスク固有の性能を最大化するプロンプトを特定するために,この空間を体系的に探索する。
ファイナンシャル・プリースバンクの格付け基準に関する概念実証調査において、LatentPromptは単一最適化サイクルの後に、分類精度を約3%向上させた。
- 参考スコア(独自算出の注目度): 20.80689930065897
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances have shown that optimizing prompts for Large Language Models (LLMs) can significantly improve task performance, yet many optimization techniques rely on heuristics or manual exploration. We present LatentPrompt, a model-agnostic framework for prompt optimization that leverages latent semantic space to automatically generate, evaluate, and refine candidate prompts without requiring hand-crafted rules. Beginning with a set of seed prompts, our method embeds them in a continuous latent space and systematically explores this space to identify prompts that maximize task-specific performance. In a proof-of-concept study on the Financial PhraseBank sentiment classification benchmark, LatentPrompt increased classification accuracy by approximately 3 percent after a single optimization cycle. The framework is broadly applicable, requiring only black-box access to an LLM and an automatic evaluation metric, making it suitable for diverse domains and tasks.
- Abstract(参考訳): 近年の進歩は、LLM(Large Language Models)の最適化プロンプトがタスク性能を大幅に改善できることを示しているが、多くの最適化手法はヒューリスティックスや手動探索に依存している。
提案するLatentPromptは,手作りルールを必要とせずに,潜在意味空間を利用して候補プロンプトを自動生成,評価,洗練する,プロンプトのモデルに依存しないフレームワークである。
シードプロンプトのセットから始まり,本手法は連続的な潜伏空間にそれらを埋め込んで,タスク固有のパフォーマンスを最大化するプロンプトを特定するために,この空間を体系的に探索する。
ファイナンシャル・プリースバンクの格付け基準に関する概念実証調査において、LatentPromptは単一最適化サイクルの後に、分類精度を約3%向上させた。
フレームワークは広く適用可能で、LCMへのブラックボックスアクセスと自動評価基準しか必要とせず、多様なドメインやタスクに適している。
関連論文リスト
- MOPrompt: Multi-objective Semantic Evolution for Prompt Optimization [0.0699049312989311]
MOPromptは、正確性とコンテキストサイズ(トークンで測定される)の両方のプロンプトを同時に最適化するために設計された、新しいフレームワークである。
ポルトガルの感情分析課題であるMOPromptについて, Gemma-2BとSabiazinho-3を評価モデルとして評価した。
論文 参考訳(メタデータ) (2025-08-03T01:50:43Z) - Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - TAPO: Task-Referenced Adaptation for Prompt Optimization [18.533289140594146]
本稿では,3つの鍵モジュールからなるマルチタスク対応プロンプト最適化フレームワークTAPOを紹介する。
まず、タスク固有のプロンプト生成機能を強化するために、タスク対応メトリック選択モジュールを提案する。
次に,複数視点からのプロンプトを共同評価するマルチメトリック評価モジュールを提案する。
第3に、自動プロンプト改善のための進化ベースの最適化フレームワークが導入され、様々なタスクへの適応性が改善されている。
論文 参考訳(メタデータ) (2025-01-12T02:43:59Z) - A Sequential Optimal Learning Approach to Automated Prompt Engineering in Large Language Models [14.483240353801074]
本稿では,自動プロンプトエンジニアリングのための最適学習フレームワークを提案する。
限られた評価予算を効率的に割り当てつつ、効果的なプロンプト機能を逐次識別するように設計されている。
私たちのフレームワークは、より広い範囲のアプリケーションに自動プロンプトエンジニアリングをデプロイするためのソリューションを提供します。
論文 参考訳(メタデータ) (2025-01-07T03:51:10Z) - GReaTer: Gradients over Reasoning Makes Smaller Language Models Strong Prompt Optimizers [52.17222304851524]
本稿では,タスク固有の推論よりも勾配情報を直接組み込む新しいプロンプト最適化手法であるGReaTerを紹介する。
GReaTerはタスク損失勾配を利用して、オープンソースの軽量言語モデルのためのプロンプトの自己最適化を可能にする。
GReaTerは、従来の最先端のプロンプト最適化手法を一貫して上回っている。
論文 参考訳(メタデータ) (2024-12-12T20:59:43Z) - Enhancing LLM-Based Text Classification in Political Science: Automatic Prompt Optimization and Dynamic Exemplar Selection for Few-Shot Learning [1.6967824074619953]
大型言語モデル (LLMs) は、政治学におけるテキスト分類をかなり約束する。
本フレームワークは,自動プロンプト最適化,動的指数選択,コンセンサス機構を通じてLLM性能を向上させる。
オープンソースのPythonパッケージ(PoliPrompt)がGitHubで公開されている。
論文 参考訳(メタデータ) (2024-09-02T21:05:31Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - MAPO: Boosting Large Language Model Performance with Model-Adaptive Prompt Optimization [73.7779735046424]
異なるプロンプトを異なるLarge Language Models (LLM) に適応させることで,NLP の様々な下流タスクにまたがる機能の向上が期待できる。
次に、下流タスクにおける各LLMに対して、元のプロンプトを最適化するモデル適応プロンプト(MAPO)手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:39:59Z) - Intent-based Prompt Calibration: Enhancing prompt optimization with
synthetic boundary cases [2.6159111710501506]
本稿では,ユーザ意図に対するプロンプトを反復的に洗練するキャリブレーションプロセスを用いて,自動プロンプトエンジニアリングの新しい手法を提案する。
我々は,モデレーションや生成といった現実的なタスクにおいて,強力なプロプライエタリなモデルに対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-02-05T15:28:43Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。