論文の概要: MOPrompt: Multi-objective Semantic Evolution for Prompt Optimization
- arxiv url: http://arxiv.org/abs/2508.01541v1
- Date: Sun, 03 Aug 2025 01:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.929909
- Title: MOPrompt: Multi-objective Semantic Evolution for Prompt Optimization
- Title(参考訳): MOPrompt: プロンプト最適化のための多目的セマンティック進化
- Authors: Sara Câmara, Eduardo Luz, Valéria Carvalho, Ivan Meneghini, Gladston Moreira,
- Abstract要約: MOPromptは、正確性とコンテキストサイズ(トークンで測定される)の両方のプロンプトを同時に最適化するために設計された、新しいフレームワークである。
ポルトガルの感情分析課題であるMOPromptについて, Gemma-2BとSabiazinho-3を評価モデルとして評価した。
- 参考スコア(独自算出の注目度): 0.0699049312989311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt engineering is crucial for unlocking the potential of Large Language Models (LLMs). Still, since manual prompt design is often complex, non-intuitive, and time-consuming, automatic prompt optimization has emerged as a research area. However, a significant challenge in prompt optimization is managing the inherent trade-off between task performance, such as accuracy, and context size. Most existing automated methods focus on a single objective, typically performance, thereby failing to explore the critical spectrum of efficiency and effectiveness. This paper introduces the MOPrompt, a novel Multi-objective Evolutionary Optimization (EMO) framework designed to optimize prompts for both accuracy and context size (measured in tokens) simultaneously. Our framework maps the Pareto front of prompt solutions, presenting practitioners with a set of trade-offs between context size and performance, a crucial tool for deploying Large Language Models (LLMs) in real-world applications. We evaluate MOPrompt on a sentiment analysis task in Portuguese, using Gemma-2B and Sabiazinho-3 as evaluation models. Our findings show that MOPrompt substantially outperforms the baseline framework. For the Sabiazinho model, MOPrompt identifies a prompt that achieves the same peak accuracy (0.97) as the best baseline solution, but with a 31% reduction in token length.
- Abstract(参考訳): プロンプトエンジニアリングは、Large Language Models(LLM)の可能性を解き放つために不可欠である。
しかし、手動のプロンプト設計はしばしば複雑で直感的で時間を要するため、自動的なプロンプト最適化が研究領域として現れている。
しかし、迅速な最適化における重要な課題は、正確性やコンテキストサイズといったタスクパフォーマンス間の本質的にのトレードオフを管理することである。
既存の自動化手法のほとんどは、通常パフォーマンスという単一の目的に焦点を合わせており、効率と有効性のクリティカルなスペクトルを探索することができない。
本稿では,多目的進化最適化(Multi-objective Evolutionary Optimization, EMO)フレームワークであるMOPromptを紹介する。
当社のフレームワークは,現実のアプリケーションに大規模言語モデル(LLM)をデプロイするための重要なツールである,コンテキストサイズとパフォーマンスのトレードオフセットを提供する。
ポルトガルの感情分析課題であるMOPromptについて, Gemma-2BとSabiazinho-3を評価モデルとして評価した。
この結果,MOPromptはベースラインフレームワークよりも大幅に優れていた。
サビアジンホモデルでは、MOPromptは最高のベースライン解と同じピーク精度(0.97)を達成するプロンプトを識別するが、トークン長は31%減少する。
関連論文リスト
- LatentPrompt: Optimizing Promts in Latent Space [20.80689930065897]
本稿では,迅速な最適化のためのモデルに依存しないフレームワークであるLatentPromptを紹介する。
提案手法は,連続的な潜伏空間にシードプロンプトを埋め込み,タスク固有の性能を最大化するプロンプトを特定するために,この空間を体系的に探索する。
ファイナンシャル・プリースバンクの格付け基準に関する概念実証調査において、LatentPromptは単一最適化サイクルの後に、分類精度を約3%向上させた。
論文 参考訳(メタデータ) (2025-08-04T14:17:29Z) - Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - MEMETRON: Metaheuristic Mechanisms for Test-time Response Optimization of Large Language Models [0.6926105253992517]
大規模言語モデル(LLM)は、オープンエンドタスクと構造化タスクの両方にますます使われている。
本稿では,個別のブラックボックス最適化問題としてLCMデコーディングを定式化するタスク非依存フレームワークMEMETRONを紹介する。
我々は,人間の嗜好アライメントタスクの枠組みを評価し,標準的な復号化手法と復号化手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2025-06-10T09:55:53Z) - Tournament of Prompts: Evolving LLM Instructions Through Structured Debates and Elo Ratings [0.9437165725355702]
我々は,エロの選考による議論駆動評価を通じて,進化を促す新しいフレームワークであるDEEVOを紹介する。
Eloの格付けをフィットネスプロキシとして利用することで、DEEVOは同時に改善を推進し、迅速な人口の貴重な多様性を保ちます。
論文 参考訳(メタデータ) (2025-05-30T19:33:41Z) - Acting Less is Reasoning More! Teaching Model to Act Efficiently [87.28134636548705]
ツール統合推論は、タスクを解決するために外部ツールを呼び出す機能によって、大きな言語モデルを拡張します。
現在のアプローチは、外部ツールの使用効率や必要性を考慮せずに、最終的な正確性のためにのみ最適化されている。
最小限のツールコールで正確な回答をモデルに提示するフレームワークを提案する。
このアプローチでは,ツールコールを最大68.3%削減し,ツールの生産性を最大215.4%向上すると同時に,同等の回答精度を維持している。
論文 参考訳(メタデータ) (2025-04-21T05:40:05Z) - EfficientLLaVA:Generalizable Auto-Pruning for Large Vision-language Models [64.18350535770357]
マルチモーダル推論の効率を高めるために,大規模視覚言語モデルの自動プルーニング手法を提案する。
提案手法では,所望のプルーニングポリシーを探索するために,少数のサンプルのみを活用する。
視覚的質問応答のためのScienceQA, Vizwiz, MM-vet, LLaVA-Benchデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-19T16:07:04Z) - A Sequential Optimal Learning Approach to Automated Prompt Engineering in Large Language Models [14.483240353801074]
本稿では,自動プロンプトエンジニアリングのための最適学習フレームワークを提案する。
限られた評価予算を効率的に割り当てつつ、効果的なプロンプト機能を逐次識別するように設計されている。
私たちのフレームワークは、より広い範囲のアプリケーションに自動プロンプトエンジニアリングをデプロイするためのソリューションを提供します。
論文 参考訳(メタデータ) (2025-01-07T03:51:10Z) - EMMA: Efficient Visual Alignment in Multi-Modal LLMs [56.03417732498859]
EMMAは、視覚的およびテキスト的エンコーディングを効率的に融合するために設計された軽量なクロスプラットフォームモジュールである。
EMMAは複数のタスクのパフォーマンスを最大9.3%向上させ、幻覚に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T23:00:31Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - T-REX: Mixture-of-Rank-One-Experts with Semantic-aware Intuition for Multi-task Large Language Model Finetuning [31.276142111455847]
大規模言語モデル(LLM)は多様なマルチタスクの微調整において重要な適応課題に直面している。
我々はmixunderlinetextbfTureunderlinetextbf-of-underlinetextbfRank-onunderlinetextbfE-eunderlinetextbfXper ts (textttT-REX) という新しいフレームワークを設計する。
Rank-1のエキスパートは、ミックス・アンド・マッチのメカニズムにより、線形パラメータのオーバーヘッドを持つエキスパートのベクトル部分空間を2次に拡張し、最適で近似誤差削減を達成することができる。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。