論文の概要: UtilityMax Prompting: A Formal Framework for Multi-Objective Large Language Model Optimization
- arxiv url: http://arxiv.org/abs/2603.11583v1
- Date: Thu, 12 Mar 2026 06:17:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.922577
- Title: UtilityMax Prompting: A Formal Framework for Multi-Objective Large Language Model Optimization
- Title(参考訳): UtilityMax Prompting:多目的大規模言語モデル最適化のための形式的フレームワーク
- Authors: Ofir Marom,
- Abstract要約: UtilityMax Promptingは、形式的な数学的言語を用いてタスクを特定するフレームワークである。
3つのフロンティアモデルにわたるMovieLens 1Mデータセットに対するアプローチを検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of a Large Language Model (LLM) task depends heavily on its prompt. Most use-cases specify prompts using natural language, which is inherently ambiguous when multiple objectives must be simultaneously satisfied. In this paper we introduce UtilityMax Prompting, a framework that specifies tasks using formal mathematical language. We reconstruct the task as an influence diagram in which the LLM's answer is the sole decision variable. A utility function is defined over the conditional probability distributions within the diagram, and the LLM is instructed to find the answer that maximises expected utility. This constrains the LLM to reason explicitly about each component of the objective, directing its output toward a precise optimization target rather than a subjective natural language interpretation. We validate our approach on the MovieLens 1M dataset across three frontier models (Claude Sonnet 4.6, GPT-5.4, and Gemini 2.5 Pro), demonstrating consistent improvements in precision and Normalized Discounted Cumulative Gain (NDCG) over natural language baselines in a multi-objective movie recommendation task.
- Abstract(参考訳): LLM(Large Language Model)タスクの成功は、そのプロンプトに大きく依存する。
ほとんどのユースケースは自然言語を使ってプロンプトを指定するが、これは本質的には複数の目的を同時に満たさなければならない場合に曖昧である。
本稿では,形式的な数学的言語を用いたタスク特定フレームワークであるUtilityMax Promptingを紹介する。
LLMの回答が唯一の決定変数である影響図としてタスクを再構築する。
実効関数は図内の条件付き確率分布上で定義され、LLMは期待された効用を最大化する解を求めるように指示される。
このことは、LLMが目的のそれぞれのコンポーネントを明示的に推論することを制限し、その出力を主観的な自然言語解釈よりも正確に最適化ターゲットに向ける。
我々は,3つのフロンティアモデル(Claude Sonnet 4.6, GPT-5.4, Gemini 2.5 Pro)にわたるMovieLens 1Mデータセットに対するアプローチを検証する。
関連論文リスト
- LISTEN to Your Preferences: An LLM Framework for Multi-Objective Selection [8.355352653283516]
LISTENは、Large Language Model(LLM)をゼロショットの選好オラクルとして活用するフレームワークである。
LISTEN-Uは嗜好がパラメトリックに一致している場合に優れ、LISTEN-Tはより堅牢な性能を提供する。
この研究は、複雑な多目的決定を直接自然言語で操るための有望な方向を探究する。
論文 参考訳(メタデータ) (2025-10-29T03:17:37Z) - The Unreasonable Effectiveness of Model Merging for Cross-Lingual Transfer in LLMs [45.08958917457921]
大規模言語モデル(LLM)は、ハイソース言語以外のタスクで依然として苦戦している。
本研究では,タスク固有のポストトレーニングデータが不足している低リソース言語への言語間移動について検討する。
論文 参考訳(メタデータ) (2025-05-23T20:28:31Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
MLLM(Multimodal Large Language Models)の試験場として機能する。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - MAPO: Boosting Large Language Model Performance with Model-Adaptive Prompt Optimization [73.7779735046424]
異なるプロンプトを異なるLarge Language Models (LLM) に適応させることで,NLP の様々な下流タスクにまたがる機能の向上が期待できる。
次に、下流タスクにおける各LLMに対して、元のプロンプトを最適化するモデル適応プロンプト(MAPO)手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:39:59Z) - Few-Shot Cross-Lingual Transfer for Prompting Large Language Models in
Low-Resource Languages [0.0]
プロンプティング(prompting)とは、ユーザがタスクの説明と完了したタスクのいくつかの例を PLM にコンテキストとして提供し、PLM に新しい例でタスクを実行するように促す方法である。
提案手法は, 数発プロンプト(prompt), 言語適応微調整(LAFT), ニューラルマシン翻訳(Translate)の3種類である。
翻訳とプロンプトの設定は、選択した低リソース言語に対して、数ショットプロンプトの計算効率とコスト効率のよい方法であることがわかった。
論文 参考訳(メタデータ) (2024-03-09T21:36:13Z) - PPTC-R benchmark: Towards Evaluating the Robustness of Large Language
Models for PowerPoint Task Completion [96.47420221442397]
文,意味,多言語レベルでユーザ命令を攻撃することにより,逆ユーザ命令を構築する。
我々は、ロバストネス設定を組み込んだベンチマークを用いて、3つのクローズドソースと4つのオープンソースLCMをテストする。
GPT-4は我々のベンチマークで最も高い性能と強靭性を示す。
論文 参考訳(メタデータ) (2024-03-06T15:33:32Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。