論文の概要: MOPrompt: Multi-objective Semantic Evolution for Prompt Optimization
- arxiv url: http://arxiv.org/abs/2508.01541v1
- Date: Sun, 03 Aug 2025 01:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.929909
- Title: MOPrompt: Multi-objective Semantic Evolution for Prompt Optimization
- Title(参考訳): MOPrompt: プロンプト最適化のための多目的セマンティック進化
- Authors: Sara Câmara, Eduardo Luz, Valéria Carvalho, Ivan Meneghini, Gladston Moreira,
- Abstract要約: MOPromptは、正確性とコンテキストサイズ(トークンで測定される)の両方のプロンプトを同時に最適化するために設計された、新しいフレームワークである。
ポルトガルの感情分析課題であるMOPromptについて, Gemma-2BとSabiazinho-3を評価モデルとして評価した。
- 参考スコア(独自算出の注目度): 0.0699049312989311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prompt engineering is crucial for unlocking the potential of Large Language Models (LLMs). Still, since manual prompt design is often complex, non-intuitive, and time-consuming, automatic prompt optimization has emerged as a research area. However, a significant challenge in prompt optimization is managing the inherent trade-off between task performance, such as accuracy, and context size. Most existing automated methods focus on a single objective, typically performance, thereby failing to explore the critical spectrum of efficiency and effectiveness. This paper introduces the MOPrompt, a novel Multi-objective Evolutionary Optimization (EMO) framework designed to optimize prompts for both accuracy and context size (measured in tokens) simultaneously. Our framework maps the Pareto front of prompt solutions, presenting practitioners with a set of trade-offs between context size and performance, a crucial tool for deploying Large Language Models (LLMs) in real-world applications. We evaluate MOPrompt on a sentiment analysis task in Portuguese, using Gemma-2B and Sabiazinho-3 as evaluation models. Our findings show that MOPrompt substantially outperforms the baseline framework. For the Sabiazinho model, MOPrompt identifies a prompt that achieves the same peak accuracy (0.97) as the best baseline solution, but with a 31% reduction in token length.
- Abstract(参考訳): プロンプトエンジニアリングは、Large Language Models(LLM)の可能性を解き放つために不可欠である。
しかし、手動のプロンプト設計はしばしば複雑で直感的で時間を要するため、自動的なプロンプト最適化が研究領域として現れている。
しかし、迅速な最適化における重要な課題は、正確性やコンテキストサイズといったタスクパフォーマンス間の本質的にのトレードオフを管理することである。
既存の自動化手法のほとんどは、通常パフォーマンスという単一の目的に焦点を合わせており、効率と有効性のクリティカルなスペクトルを探索することができない。
本稿では,多目的進化最適化(Multi-objective Evolutionary Optimization, EMO)フレームワークであるMOPromptを紹介する。
当社のフレームワークは,現実のアプリケーションに大規模言語モデル(LLM)をデプロイするための重要なツールである,コンテキストサイズとパフォーマンスのトレードオフセットを提供する。
ポルトガルの感情分析課題であるMOPromptについて, Gemma-2BとSabiazinho-3を評価モデルとして評価した。
この結果,MOPromptはベースラインフレームワークよりも大幅に優れていた。
サビアジンホモデルでは、MOPromptは最高のベースライン解と同じピーク精度(0.97)を達成するプロンプトを識別するが、トークン長は31%減少する。
関連論文リスト
- Learning from Prompt itself: the Hierarchical Attribution Prompt Optimization [13.8868879878572]
構造化最適化アプローチでは、改良されたプロンプトを開発するには、自動または半自動の手順が必要である。
現在のプロンプト最適化手法は、しばしばプロンプトドリフトを誘導し、新しいプロンプトが前の障害を修正するが、以前成功したタスクのパフォーマンスを損なう。
本研究では,(1)学習データにおける誤りパターンをターゲットとした動的帰属機構,(2)機能的プロンプトセグメントを編集するための意味単位最適化,(3)エンドツーエンドのLSMとLM-MLLMの両方をサポートするマルチモーダル・フレンドリなプロンプト・プロンプト・フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-06T03:34:17Z) - AgentMath: Empowering Mathematical Reasoning for Large Language Models via Tool-Augmented Agent [80.83250816918861]
o3やDeepSeek-R1のようなLarge Reasoning Models (LRM)は、長いチェーン・オブ・シークレットを持つ自然言語推論において顕著な進歩を遂げている。
しかし、計算的に非効率であり、複雑な数学的操作を必要とする問題を解く際には精度に苦しむ。
本稿では,言語モデルの推論能力とコードインタプリタの計算精度をシームレスに統合するエージェントフレームワークであるAgentMathを紹介する。
論文 参考訳(メタデータ) (2025-12-23T19:57:49Z) - Objective Soups: Multilingual Multi-Task Modeling for Speech Processing [69.52720282028385]
マルチ言語・マルチタスク音声処理(MSP)のための単一モデルの訓練は,タスク間の目的の相反によって著しく妨げられる。
本稿では,多目的MSPの3つの定式化について検討し,これらをthabfobjective soup recipesと呼ぶ。
我々の研究は、階層型MOOが最先端のMSPモデルを構築する上で、より効率的でスケーラブルなアプローチであることを実証している。
論文 参考訳(メタデータ) (2025-08-12T07:01:09Z) - LatentPrompt: Optimizing Promts in Latent Space [20.80689930065897]
本稿では,迅速な最適化のためのモデルに依存しないフレームワークであるLatentPromptを紹介する。
提案手法は,連続的な潜伏空間にシードプロンプトを埋め込み,タスク固有の性能を最大化するプロンプトを特定するために,この空間を体系的に探索する。
ファイナンシャル・プリースバンクの格付け基準に関する概念実証調査において、LatentPromptは単一最適化サイクルの後に、分類精度を約3%向上させた。
論文 参考訳(メタデータ) (2025-08-04T14:17:29Z) - Grammar-Guided Evolutionary Search for Discrete Prompt Optimisation [63.97051732013936]
本稿では,2段階からなる離散的な自動最適化に対する進化的探索手法を提案する。
第1段階では、文法誘導型遺伝的プログラミングが実行され、プロンプト生成プログラムを合成する。
第2段階では、局所探索を用いて、最高のパフォーマンスプログラムの周辺を探索する。
論文 参考訳(メタデータ) (2025-07-14T14:34:15Z) - MEMETRON: Metaheuristic Mechanisms for Test-time Response Optimization of Large Language Models [0.6926105253992517]
大規模言語モデル(LLM)は、オープンエンドタスクと構造化タスクの両方にますます使われている。
本稿では,個別のブラックボックス最適化問題としてLCMデコーディングを定式化するタスク非依存フレームワークMEMETRONを紹介する。
我々は,人間の嗜好アライメントタスクの枠組みを評価し,標準的な復号化手法と復号化手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2025-06-10T09:55:53Z) - Tournament of Prompts: Evolving LLM Instructions Through Structured Debates and Elo Ratings [0.9437165725355702]
我々は,エロの選考による議論駆動評価を通じて,進化を促す新しいフレームワークであるDEEVOを紹介する。
Eloの格付けをフィットネスプロキシとして利用することで、DEEVOは同時に改善を推進し、迅速な人口の貴重な多様性を保ちます。
論文 参考訳(メタデータ) (2025-05-30T19:33:41Z) - Acting Less is Reasoning More! Teaching Model to Act Efficiently [87.28134636548705]
ツール統合推論は、タスクを解決するために外部ツールを呼び出す機能によって、大きな言語モデルを拡張します。
現在のアプローチは、外部ツールの使用効率や必要性を考慮せずに、最終的な正確性のためにのみ最適化されている。
最小限のツールコールで正確な回答をモデルに提示するフレームワークを提案する。
このアプローチでは,ツールコールを最大68.3%削減し,ツールの生産性を最大215.4%向上すると同時に,同等の回答精度を維持している。
論文 参考訳(メタデータ) (2025-04-21T05:40:05Z) - EfficientLLaVA:Generalizable Auto-Pruning for Large Vision-language Models [64.18350535770357]
マルチモーダル推論の効率を高めるために,大規模視覚言語モデルの自動プルーニング手法を提案する。
提案手法では,所望のプルーニングポリシーを探索するために,少数のサンプルのみを活用する。
視覚的質問応答のためのScienceQA, Vizwiz, MM-vet, LLaVA-Benchデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2025-03-19T16:07:04Z) - A Sequential Optimal Learning Approach to Automated Prompt Engineering in Large Language Models [14.483240353801074]
本稿では,自動プロンプトエンジニアリングのための最適学習フレームワークを提案する。
限られた評価予算を効率的に割り当てつつ、効果的なプロンプト機能を逐次識別するように設計されている。
私たちのフレームワークは、より広い範囲のアプリケーションに自動プロンプトエンジニアリングをデプロイするためのソリューションを提供します。
論文 参考訳(メタデータ) (2025-01-07T03:51:10Z) - EMMA: Efficient Visual Alignment in Multi-Modal LLMs [56.03417732498859]
EMMAは、視覚的およびテキスト的エンコーディングを効率的に融合するために設計された軽量なクロスプラットフォームモジュールである。
EMMAは複数のタスクのパフォーマンスを最大9.3%向上させ、幻覚に対する堅牢性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-10-02T23:00:31Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - T-REX: Mixture-of-Rank-One-Experts with Semantic-aware Intuition for Multi-task Large Language Model Finetuning [31.276142111455847]
大規模言語モデル(LLM)は多様なマルチタスクの微調整において重要な適応課題に直面している。
我々はmixunderlinetextbfTureunderlinetextbf-of-underlinetextbfRank-onunderlinetextbfE-eunderlinetextbfXper ts (textttT-REX) という新しいフレームワークを設計する。
Rank-1のエキスパートは、ミックス・アンド・マッチのメカニズムにより、線形パラメータのオーバーヘッドを持つエキスパートのベクトル部分空間を2次に拡張し、最適で近似誤差削減を達成することができる。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Query-Dependent Prompt Evaluation and Optimization with Offline Inverse
RL [62.824464372594576]
ゼロショットプロンプト最適化により,Large Language Models (LLM) の算術的推論能力を向上させることを目的とする。
このような最適化では、以前見過ごされたクエリ依存の目的を特定します。
本稿では、オフライン逆強化学習を利用して、実演データから洞察を引き出すPrompt-OIRLを紹介する。
論文 参考訳(メタデータ) (2023-09-13T01:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。