論文の概要: Beyond the Prompt: Assessing Domain Knowledge Strategies for High-Dimensional LLM Optimization in Software Engineering
- arxiv url: http://arxiv.org/abs/2602.02752v1
- Date: Mon, 02 Feb 2026 20:07:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.059941
- Title: Beyond the Prompt: Assessing Domain Knowledge Strategies for High-Dimensional LLM Optimization in Software Engineering
- Title(参考訳): プロンプトを超えて - ソフトウェア工学における高次元LLM最適化のためのドメイン知識戦略の評価
- Authors: Srinath Srinivasan, Tim Menzies,
- Abstract要約: 私たちは、ドメイン知識を生成するために、人間と人工知能の戦略を比較します。
構造化知識の統合により、LLMが高次元最適化のための効果的なウォームスタートを生成することができるかどうかを決定するために、4つの異なるアーキテクチャを体系的に評価する。
- 参考スコア(独自算出の注目度): 4.168157981135697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background/Context: Large Language Models (LLMs) demonstrate strong performance on low-dimensional software engineering optimization tasks ($\le$11 features) but consistently underperform on high-dimensional problems where Bayesian methods dominate. A fundamental gap exists in understanding how systematic integration of domain knowledge (whether from humans or automated reasoning) can bridge this divide. Objective/Aim: We compare human versus artificial intelligence strategies for generating domain knowledge. We systematically evaluate four distinct architectures to determine if structured knowledge integration enables LLMs to generate effective warm starts for high-dimensional optimization. Method: We evaluate four approaches on MOOT datasets stratified by dimensionality: (1) Human-in-the-Loop Domain Knowledge Prompting (H-DKP), utilizing asynchronous expert feedback loops; (2) Adaptive Multi-Stage Prompting (AMP), implementing sequential constraint identification and validation; (3) Dimension-Aware Progressive Refinement (DAPR), conducting optimization in progressively expanding feature subspaces; and (4) Hybrid Knowledge-Model Approach (HKMA), synthesizing statistical scouting (TPE) with RAG-enhanced prompting. Performance is quantified via Chebyshev distance to optimal solutions and ranked using Scott-Knott clustering against an established baseline for LLM generated warm starts. Note that all human studies conducted as part of this study will comply with the policies of our local Institutional Review Board.
- Abstract(参考訳): 背景/背景: 大規模言語モデル(LLM)は、低次元のソフトウェア工学最適化タスク($11の機能)で強いパフォーマンスを示すが、ベイズ的手法が支配的な高次元問題では一貫してパフォーマンスが低い。
ドメイン知識の体系的な統合(人間か自動推論か)がいかにしてこの分割を橋渡しできるかを理解するのに、根本的なギャップがある。
Objective/Aim: ドメイン知識を生成するための人間と人工知能の戦略を比較します。
構造化知識の統合により、LLMが高次元最適化のための効果的なウォームスタートを生成することができるかどうかを決定するために、4つの異なるアーキテクチャを体系的に評価する。
方法: 提案手法は,(1)H-DKP(Human-in-the-Loop Domain Knowledge Prompting),(2)Adaptive Multi-Stage Prompting(AMP),(3)Dimension-Aware Progressive Refinement(DAPR),(4)HKMA(Hybrid Knowledge-Model Approach),(4)RAG-enhanced prompting(TPE)の合成である。
性能はチェビシェフ距離から最適解まで定量化され、Scott-Knottクラスタリングを用いて、LLM生成したウォームスタートの確立されたベースラインに対してランク付けされる。
この研究の一環として実施されたすべての人間研究は、当社の地方機関審査委員会の方針に従うことに留意されたい。
関連論文リスト
- Interaction-Grounded Learning for Contextual Markov Decision Processes with Personalized Feedback [59.287761696290865]
本稿では,個人化されたフィードバックを伴って,文脈的マルコフ決定プロセス(MDP)のサブ線形後悔保証を実現する計算効率の高いアルゴリズムを提案する。
提案手法の有効性を,合成エピソードMDPと実世界のユーザ予約データセットの両方を用いた実験を通じて,マルチターンインタラクションからパーソナライズされた目的を学習する際の有効性を示す。
論文 参考訳(メタデータ) (2026-02-09T06:29:54Z) - How to Auto-optimize Prompts for Domain Tasks? Adaptive Prompting and Reasoning through Evolutionary Domain Knowledge Adaptation [14.124422051296813]
EGO-Promptは、より良いプロンプト、効率的な推論プロセス、改善された因果情報処理を設計する自動化フレームワークである。
因果誘導による新たなテキスト勾配プロセスを2つのステップに統合する。
最先端の手法よりも7.32%-12.61%高いF1を実現し、小型モデルは原価の20%以下で大型モデルの性能に達することができる。
論文 参考訳(メタデータ) (2025-10-24T04:38:53Z) - A Systematic Survey on Large Language Models for Evolutionary Optimization: From Modeling to Solving [26.501685261132124]
大規模言語モデル(LLM)は、最適化問題に対処するためにますます研究されている。
急速な進歩にもかかわらず、この分野は依然として統一的な合成と体系的な分類を欠いている。
この調査は、最近の開発を包括的にレビューし、構造化されたフレームワーク内でそれらを整理することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-09-10T04:05:54Z) - Pre-trained knowledge elevates large language models beyond traditional chemical reaction optimizers [0.0]
大規模言語モデル(LLM)における事前学習知識がこのパラダイムを根本的に変えることを実証する。
LLM-GOは、伝統的な手法が苦労するところを正確に表現している: 数学的最適化よりもドメイン理解を必要とする複雑なカテゴリー空間。
論文 参考訳(メタデータ) (2025-08-27T21:09:51Z) - LLM4CMO: Large Language Model-aided Algorithm Design for Constrained Multiobjective Optimization [54.35609820607923]
大規模言語モデル(LLM)は、アルゴリズム設計を支援する新しい機会を提供する。
LLM4CMOは,2つの人口構成をもつ2段階のフレームワークをベースとした新しいCMOEAである。
LLMは複雑な進化最適化アルゴリズムの開発において効率的な共同設計者として機能する。
論文 参考訳(メタデータ) (2025-08-16T02:00:57Z) - Efficient Strategy for Improving Large Language Model (LLM) Capabilities [0.0]
大規模言語モデル(LLM)は、人工知能と自然言語処理の分野でマイルストーンとなっている。
大規模なデプロイメントは、重要な計算リソースの必要性によって、依然として制限されている。
この研究は、データ処理と慎重なデータ選択手法を探索し組み合わせるためのベースモデルから始めることを提案する。
論文 参考訳(メタデータ) (2025-08-06T04:08:26Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - On the Global Optimality of Model-Agnostic Meta-Learning [133.16370011229776]
モデル・ア・メタラーニング(MAML)は、メタラーニングを二段階最適化問題として定式化し、内部レベルが各サブタスクを、共有された事前に基づいて解決する。
学習と教師あり学習の両方においてMAMLが達成した定常点の最適性を特徴付ける。
論文 参考訳(メタデータ) (2020-06-23T17:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。