論文の概要: From Natural Language to Solver-Ready Power System Optimization: An LLM-Assisted, Validation-in-the-Loop Framework
- arxiv url: http://arxiv.org/abs/2508.08147v1
- Date: Mon, 11 Aug 2025 16:22:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.206792
- Title: From Natural Language to Solver-Ready Power System Optimization: An LLM-Assisted, Validation-in-the-Loop Framework
- Title(参考訳): 自然言語からSolver-Ready Power System Optimization: LLM-Assisted, Validation-in-the-Loop Framework
- Authors: Yunkai Hu, Tianqiao Zhao, Meng Yue,
- Abstract要約: 本稿では,Large Language Models (LLMs) を用いたエージェントを導入し,電力系統最適化シナリオの自然言語記述を,コンパクトで解決可能な定式化に自動変換する。
提案手法は,オフザシェルフ最適化解法により効率よく解ける数学的に互換性のある定式化の発見に重点を置いている。
- 参考スコア(独自算出の注目度): 1.7136832159667206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel Large Language Models (LLMs)-assisted agent that automatically converts natural-language descriptions of power system optimization scenarios into compact, solver-ready formulations and generates corresponding solutions. In contrast to approaches that rely solely on LLM to produce solutions directly, the proposed method focuses on discovering a mathematically compatible formulation that can be efficiently solved by off-the-shelf optimization solvers. Directly using LLMs to produce solutions often leads to infeasible or suboptimal results, as these models lack the numerical precision and constraint-handling capabilities of established optimization solvers. The pipeline integrates a domain-aware prompt and schema with an LLM, enforces feasibility through systematic validation and iterative repair, and returns both solver-ready models and user-facing results. Using the unit commitment problem as a representative case study, the agent produces optimal or near-optimal schedules along with the associated objective costs. Results demonstrate that coupling the solver with task-specific validation significantly enhances solution reliability. This work shows that combining AI with established optimization frameworks bridges high-level problem descriptions and executable mathematical models, enabling more efficient decision-making in energy systems
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) 支援エージェントを提案する。このエージェントは,電力系統最適化シナリオの自然言語記述をコンパクトで解決可能な定式化に自動変換し,対応する解を生成する。
LLMにのみ依存してソリューションを直接生成する手法とは対照的に,提案手法では,既製の最適化解法によって効率よく解ける数学的に互換性のある定式化の発見に重点を置いている。
これらのモデルでは、確立された最適化解法の数値的精度と制約処理能力が欠如しているため、LLMを直接的に解を生成すると、実現不可能または準最適結果につながることが多い。
パイプラインはドメイン対応プロンプトとスキーマをLLMに統合し、システマティックな検証と反復的な修復を通じて実現可能性を適用し、ソルバ対応モデルとユーザ対応結果の両方を返す。
代表的なケーススタディとして単位コミットメント問題を用いて、エージェントは、関連する目標コストとともに最適またはほぼ最適スケジュールを生成する。
その結果、解法とタスク固有の検証を結合することで、解の信頼性が著しく向上することが示された。
この研究は、AIと確立された最適化フレームワークを組み合わせることで、高レベルの問題記述と実行可能な数学的モデルがブリッジされ、エネルギーシステムにおけるより効率的な意思決定が可能になることを示している。
関連論文リスト
- OptiHive: Ensemble Selection for LLM-Based Optimization via Statistical Modeling [3.8366697175402225]
我々は,反復的な自己言語を使わずに,自然補正記述から高品質な問題解決を行うフレームワークOptiHiveを紹介した。
OptiHiveは単一のバッチLLMクエリを使用して、さまざまなコンポーネント(ソルバ、問題インスタンス、バリデーションテスト)を生成し、誤ったコンポーネントをフィルタリングして完全に解釈可能な出力を保証する。
従来の最適化問題からMulti-Depot Vehicle Routing Problemの変種への挑戦に至るまでのタスクにおいて、OptiHiveはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-08-04T15:11:51Z) - Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.082897040940447]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Autoformulation of Mathematical Optimization Models Using LLMs [50.030647274271516]
本稿では,自然言語問題記述から解法対応最適化モデルを自動生成する,$textitautoformulation$の問題にアプローチする。
オートフォーミュレーションの3つの主要な課題を識別する: $textit(1)$ 巨大で問題に依存した仮説空間、および$textit(2)$ 不確実性の下でこの空間を効率的かつ多様に探索する。
我々は,$textitLarge Language Models$と$textitMonte-Carlo Tree Search$を併用した新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-03T20:41:38Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - Solving General Natural-Language-Description Optimization Problems with Large Language Models [34.50671063271608]
外部ソルバでLLMを増強するOPtLLMという新しいフレームワークを提案する。
OptLLMは自然言語でユーザクエリを受け付け、それらを数学的定式化やプログラミングコードに変換し、解決者を呼び出して結果を計算する。
OptLLMフレームワークのいくつかの機能は、2023年6月から試用されている。
論文 参考訳(メタデータ) (2024-07-09T07:11:10Z) - Language Models for Business Optimisation with a Real World Case Study in Production Scheduling [3.224702011999591]
大規模言語モデル (LLM) は、様々な言語関連タスクにまたがる卓越した性能を示している。
ビジネス最適化における問題定式化を自動化するためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-22T23:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。