論文の概要: Beyond the Prompt: Assessing Domain Knowledge Strategies for High-Dimensional LLM Optimization in Software Engineering
- arxiv url: http://arxiv.org/abs/2602.02752v1
- Date: Mon, 02 Feb 2026 20:07:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.059941
- Title: Beyond the Prompt: Assessing Domain Knowledge Strategies for High-Dimensional LLM Optimization in Software Engineering
- Title(参考訳): プロンプトを超えて - ソフトウェア工学における高次元LLM最適化のためのドメイン知識戦略の評価
- Authors: Srinath Srinivasan, Tim Menzies,
- Abstract要約: 私たちは、ドメイン知識を生成するために、人間と人工知能の戦略を比較します。
構造化知識の統合により、LLMが高次元最適化のための効果的なウォームスタートを生成することができるかどうかを決定するために、4つの異なるアーキテクチャを体系的に評価する。
- 参考スコア(独自算出の注目度): 4.168157981135697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background/Context: Large Language Models (LLMs) demonstrate strong performance on low-dimensional software engineering optimization tasks ($\le$11 features) but consistently underperform on high-dimensional problems where Bayesian methods dominate. A fundamental gap exists in understanding how systematic integration of domain knowledge (whether from humans or automated reasoning) can bridge this divide. Objective/Aim: We compare human versus artificial intelligence strategies for generating domain knowledge. We systematically evaluate four distinct architectures to determine if structured knowledge integration enables LLMs to generate effective warm starts for high-dimensional optimization. Method: We evaluate four approaches on MOOT datasets stratified by dimensionality: (1) Human-in-the-Loop Domain Knowledge Prompting (H-DKP), utilizing asynchronous expert feedback loops; (2) Adaptive Multi-Stage Prompting (AMP), implementing sequential constraint identification and validation; (3) Dimension-Aware Progressive Refinement (DAPR), conducting optimization in progressively expanding feature subspaces; and (4) Hybrid Knowledge-Model Approach (HKMA), synthesizing statistical scouting (TPE) with RAG-enhanced prompting. Performance is quantified via Chebyshev distance to optimal solutions and ranked using Scott-Knott clustering against an established baseline for LLM generated warm starts. Note that all human studies conducted as part of this study will comply with the policies of our local Institutional Review Board.
- Abstract(参考訳): 背景/背景: 大規模言語モデル(LLM)は、低次元のソフトウェア工学最適化タスク($11の機能)で強いパフォーマンスを示すが、ベイズ的手法が支配的な高次元問題では一貫してパフォーマンスが低い。
ドメイン知識の体系的な統合(人間か自動推論か)がいかにしてこの分割を橋渡しできるかを理解するのに、根本的なギャップがある。
Objective/Aim: ドメイン知識を生成するための人間と人工知能の戦略を比較します。
構造化知識の統合により、LLMが高次元最適化のための効果的なウォームスタートを生成することができるかどうかを決定するために、4つの異なるアーキテクチャを体系的に評価する。
方法: 提案手法は,(1)H-DKP(Human-in-the-Loop Domain Knowledge Prompting),(2)Adaptive Multi-Stage Prompting(AMP),(3)Dimension-Aware Progressive Refinement(DAPR),(4)HKMA(Hybrid Knowledge-Model Approach),(4)RAG-enhanced prompting(TPE)の合成である。
性能はチェビシェフ距離から最適解まで定量化され、Scott-Knottクラスタリングを用いて、LLM生成したウォームスタートの確立されたベースラインに対してランク付けされる。
この研究の一環として実施されたすべての人間研究は、当社の地方機関審査委員会の方針に従うことに留意されたい。
関連論文リスト
- How to Auto-optimize Prompts for Domain Tasks? Adaptive Prompting and Reasoning through Evolutionary Domain Knowledge Adaptation [14.124422051296813]
EGO-Promptは、より良いプロンプト、効率的な推論プロセス、改善された因果情報処理を設計する自動化フレームワークである。
因果誘導による新たなテキスト勾配プロセスを2つのステップに統合する。
最先端の手法よりも7.32%-12.61%高いF1を実現し、小型モデルは原価の20%以下で大型モデルの性能に達することができる。
論文 参考訳(メタデータ) (2025-10-24T04:38:53Z) - Pre-trained knowledge elevates large language models beyond traditional chemical reaction optimizers [0.0]
大規模言語モデル(LLM)における事前学習知識がこのパラダイムを根本的に変えることを実証する。
LLM-GOは、伝統的な手法が苦労するところを正確に表現している: 数学的最適化よりもドメイン理解を必要とする複雑なカテゴリー空間。
論文 参考訳(メタデータ) (2025-08-27T21:09:51Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - On the Global Optimality of Model-Agnostic Meta-Learning [133.16370011229776]
モデル・ア・メタラーニング(MAML)は、メタラーニングを二段階最適化問題として定式化し、内部レベルが各サブタスクを、共有された事前に基づいて解決する。
学習と教師あり学習の両方においてMAMLが達成した定常点の最適性を特徴付ける。
論文 参考訳(メタデータ) (2020-06-23T17:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。