論文の概要: Beyond Elicitation: Provision-based Prompt Optimization for Knowledge-Intensive Tasks
- arxiv url: http://arxiv.org/abs/2511.10465v1
- Date: Fri, 14 Nov 2025 01:52:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.880549
- Title: Beyond Elicitation: Provision-based Prompt Optimization for Knowledge-Intensive Tasks
- Title(参考訳): Beyond Elicitation: 知識集約タスクのためのプロビジョニングベースのプロンプト最適化
- Authors: Yunzhe Xu, Zhuosheng Zhang, Zhe Liu,
- Abstract要約: 本稿では,迅速な最適化を潜在的推論ではなく,体系的な知識統合として再構築する枠組みを提案する。
KPPOは、1)知識ギャップの識別と目的の修復のための知識ギャップ充足機構、2)パフォーマンス改善と分散安定性の両方を考慮したバッチワイドな候補評価アプローチ、3)パフォーマンスとトークン効率のバランスをとる適応的な知識刈取戦略、そして、最大29%のトークン使用率を削減します。
- 参考スコア(独自算出の注目度): 14.3960744184039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While prompt optimization has emerged as a critical technique for enhancing language model performance, existing approaches primarily focus on elicitation-based strategies that search for optimal prompts to activate models' capabilities. These methods exhibit fundamental limitations when addressing knowledge-intensive tasks, as they operate within fixed parametric boundaries rather than providing the factual knowledge, terminology precision, and reasoning patterns required in specialized domains. To address these limitations, we propose Knowledge-Provision-based Prompt Optimization (KPPO), a framework that reformulates prompt optimization as systematic knowledge integration rather than potential elicitation. KPPO introduces three key innovations: 1) a knowledge gap filling mechanism for knowledge gap identification and targeted remediation; 2) a batch-wise candidate evaluation approach that considers both performance improvement and distributional stability; 3) an adaptive knowledge pruning strategy that balances performance and token efficiency, reducing up to 29% token usage. Extensive evaluation on 15 knowledge-intensive benchmarks from various domains demonstrates KPPO's superiority over elicitation-based methods, with an average performance improvement of ~6% over the strongest baseline while achieving comparable or lower token consumption. Code at: https://github.com/xyz9911/KPPO.
- Abstract(参考訳): プロンプト最適化は言語モデルの性能を高める重要な手法として現れてきたが、既存のアプローチは主に、モデルの機能を活性化するための最適なプロンプトを探索するエリテーションベースの戦略に焦点を当てている。
これらの手法は、専門領域で必要とされる事実的知識、用語的精度、推論パターンを提供するのではなく、一定のパラメトリック境界内で動作するため、知識集約的なタスクに対処する際の根本的な制限を示す。
このような制約に対処するため,我々は,知識提供型プロンプト最適化(KPPO)を提案する。
KPPOは3つの重要なイノベーションを紹介します。
1) 知識ギャップ識別と目標修復のための知識ギャップ充足機構
2) 性能改善と分布安定の両面を考慮したバッチワイドな候補評価手法
3) パフォーマンスとトークン効率のバランスを保ち、トークン使用率を最大29%削減する適応的な知識取得戦略。
様々なドメインの15の知識集約型ベンチマークに対する広範囲な評価は、KPPOがElicitationベースの手法よりも優れていることを示している。
コードネームはhttps://github.com/xyz9911/KPPO。
関連論文リスト
- Perception-Aware Policy Optimization for Multimodal Reasoning [79.56070395437898]
現在のマルチモーダル推論における誤りの主な原因は、視覚入力の知覚にある。
提案するPAPOは,モデルが推論を学習しながら知覚を学習することを奨励する,新しいポリシー勾配アルゴリズムである。
知覚誤りの30.5%が有意に減少し,PAPOによる知覚能力の向上が示唆された。
論文 参考訳(メタデータ) (2025-07-08T23:22:34Z) - Optimizing Anytime Reasoning via Budget Relative Policy Optimization [70.32755424260336]
我々は,任意の推論性能を最適化する新しいフレームワークであるAnytimeReasonerを提案する。
従来の分布からサンプルトークンの予算に適合するように、完全な思考プロセスを切り離します。
次に、累積報酬を最大化するために、分割された方法で思考と要約ポリシーを最適化する。
論文 参考訳(メタデータ) (2025-05-19T17:58:44Z) - An Innovative Data-Driven and Adaptive Reinforcement Learning Approach for Context-Aware Prescriptive Process Monitoring [3.4437362489150254]
本稿では,Fun-Tuned Offline Reinforcement Learning Augmented Process Sequence Optimizationという新しいフレームワークを提案する。
FORLAPSは、状態依存型報酬形成機構によって強化された学習を活用して、ビジネスプロセスにおける最適な実行経路を特定することを目的としている。
また,FOLAPSは資源使用時間の31%削減,プロセス時間の23%削減を実現している。
論文 参考訳(メタデータ) (2025-01-17T20:31:35Z) - RaCT: Ranking-aware Chain-of-Thought Optimization for LLMs [30.216174551427443]
大規模言語モデル(LLM)は、テキスト再ランクタスクにおいて顕著な可能性を示している。
LLMをランク付けタスクに特化するための従来の微調整手法は、しばしばモデルの汎用能力を著しく低下させる。
本稿では,CoT(Chain-of-Thought)と革新的な2段階トレーニングパイプラインを戦略的に組み合わせた手法を提案する。
論文 参考訳(メタデータ) (2024-12-18T23:24:15Z) - Optimal Query Allocation in Extractive QA with LLMs: A Learning-to-Defer Framework with Theoretical Guarantees [3.4289478404209826]
大規模言語モデルは生成タスクでは優れているが、構造化されたテキスト選択では非効率である。
本稿では,専門的な専門家にクエリを割り当て,信頼性の高い予測を確実にする学習者向けフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T08:21:00Z) - Improving Point-based Crowd Counting and Localization Based on Auxiliary Point Guidance [59.71186244597394]
本稿では,提案手法における提案対象マッチングの安定化に有効な手法を提案する。
本稿では,提案手法の選択と最適化のために,Auxiliary Point Guidance (APG)を提案する。
また,多様な群集シナリオにおける適応的特徴抽出を可能にするために,IFI(Implicit Feature Interpolation)を開発した。
論文 参考訳(メタデータ) (2024-05-17T07:23:27Z) - Benchmarking PtO and PnO Methods in the Predictive Combinatorial Optimization Regime [59.27851754647913]
予測最適化(英: Predictive optimization)は、エネルギーコストを意識したスケジューリングや広告予算配分など、多くの現実世界のアプリケーションの正確なモデリングである。
我々は,広告のための新しい産業データセットを含む8つの問題に対して,既存のPtO/PnOメソッド11をベンチマークするモジュラーフレームワークを開発した。
本研究は,8ベンチマーク中7ベンチマークにおいて,PnOアプローチがPtOよりも優れていることを示すが,PnOの設計選択に銀の弾丸は見つからない。
論文 参考訳(メタデータ) (2023-11-13T13:19:34Z) - A Survey of Contextual Optimization Methods for Decision Making under
Uncertainty [47.73071218563257]
この記事では、データからポリシーを学ぶための3つの主要なフレームワークを特定し、その強みと限界について論じる。
統一的な表記と用語の下で既存のモデルとメソッドを示し、これらを3つの主要なフレームワークに従って分類する。
論文 参考訳(メタデータ) (2023-06-17T15:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。