論文の概要: LinearizeLLM: An Agent-Based Framework for LLM-Driven Exact Linear Reformulation of Nonlinear Optimization Problems
- arxiv url: http://arxiv.org/abs/2510.15969v1
- Date: Sun, 12 Oct 2025 16:43:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.732544
- Title: LinearizeLLM: An Agent-Based Framework for LLM-Driven Exact Linear Reformulation of Nonlinear Optimization Problems
- Title(参考訳): LinearizeLLM: 非線形最適化問題のLLM駆動実測線形再構成のためのエージェントベースフレームワーク
- Authors: Paul-Niklas Ken Kandora, Simon Caspar Zeller, Aaron Jeremias Elsing, Elena Kuss, Steffen Rebennack,
- Abstract要約: 非線形最適化問題の修正は、主に手作業と専門性に重点を置いている。
textitLinearizeLLMはエージェントベースのフレームワークで、LLM(Large Language Models)を活用してこの問題を解決する。
このフレームワークは、各非線形パターンを、その非線形パターンに対して正確な線形改質を導出するように明示的に指示されたテキスト整形剤に割り当てる。
次にエージェントがコーディネートして、元の問題に匹敵するソルバ対応線形モデルを組み立てる。
- 参考スコア(独自算出の注目度): 1.3854111346209868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reformulating nonlinear optimization problems is largely manual and expertise-intensive, yet it remains essential for solving such problems with linear optimization solvers or applying special-purpose algorithms. We introduce \textit{LinearizeLLM}, an agent-based framework that solves this task by leveraging Large Language Models (LLMs). The framework assigns each nonlinear pattern to a \textit{reformulation agent} that is explicitly instructed to derive an exact linear reformulation for its nonlinearity pattern, for instance, absolute-value terms or bilinear products of decision variables. The agents then coordinate to assemble a solver-ready linear model equivalent to the original problem. To benchmark the approach, we create a dataset of 20 real-world nonlinear optimization problems derived from the established ComplexOR dataset of linear optimization problems. We evaluate our approach with several LLMs. Our results indicate that specialized LLM agents can automate linearization tasks, opening a path toward fully conversational modeling pipelines for nonlinear optimization.
- Abstract(参考訳): 非線形最適化問題の修正は、主に手動と専門性に重点を置いているが、線形最適化解法や特殊目的アルゴリズムを適用するためには依然として不可欠である。
エージェントベースのフレームワークである \textit{LinearizeLLM} を導入し、Large Language Models (LLMs) を活用してこの問題を解決する。
このフレームワークは、各非線形パターンを明示的に指示された \textit{reformulation agent} に割り当て、決定変数の絶対値項や双線型積など、その非線形パターンの正確な線形変換を導出するように指示する。
エージェントは、元の問題と同等の解法対応線形モデルを組み立てるように調整する。
提案手法をベンチマークするために,線形最適化問題の定式化された ComplexOR データセットから得られた実世界の非線形最適化問題20のデータセットを作成する。
我々はいくつかのLSMを用いてアプローチを評価した。
この結果から,LLMエージェントが線形化タスクを自動化し,非線形最適化のための完全な対話型モデリングパイプラインへの道を開くことが示唆された。
関連論文リスト
- From Natural Language to Solver-Ready Power System Optimization: An LLM-Assisted, Validation-in-the-Loop Framework [1.7136832159667206]
本稿では,Large Language Models (LLMs) を用いたエージェントを導入し,電力系統最適化シナリオの自然言語記述を,コンパクトで解決可能な定式化に自動変換する。
提案手法は,オフザシェルフ最適化解法により効率よく解ける数学的に互換性のある定式化の発見に重点を置いている。
論文 参考訳(メタデータ) (2025-08-11T16:22:57Z) - OptiHive: Ensemble Selection for LLM-Based Optimization via Statistical Modeling [3.8366697175402225]
我々は,反復的な自己言語を使わずに,自然補正記述から高品質な問題解決を行うフレームワークOptiHiveを紹介した。
OptiHiveは単一のバッチLLMクエリを使用して、さまざまなコンポーネント(ソルバ、問題インスタンス、バリデーションテスト)を生成し、誤ったコンポーネントをフィルタリングして完全に解釈可能な出力を保証する。
従来の最適化問題からMulti-Depot Vehicle Routing Problemの変種への挑戦に至るまでのタスクにおいて、OptiHiveはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-08-04T15:11:51Z) - OptiBench Meets ReSocratic: Measure and Improve LLMs for Optimization Modeling [62.19438812624467]
大規模言語モデル (LLM) は数学的推論における問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるOptiBenchを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Language Models for Business Optimisation with a Real World Case Study in Production Scheduling [3.224702011999591]
大規模言語モデル (LLM) は、様々な言語関連タスクにまたがる卓越した性能を示している。
ビジネス最適化における問題定式化を自動化するためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-22T23:45:21Z) - The Power of Learned Locally Linear Models for Nonlinear Policy
Optimization [26.45568696453259]
本稿では,一般的な非線形システムに対する簡易な戦略の厳密な分析を行う。
非線形系力学の局所線形モデルの推定と$mathttiLQR$のようなポリシー更新の繰り返しを行うアルゴリズムを解析する。
論文 参考訳(メタデータ) (2023-05-16T17:13:00Z) - SurCo: Learning Linear Surrogates For Combinatorial Nonlinear
Optimization Problems [43.95592587141054]
私たちは、$textbfSurCo$が既存の$underlinetextCo$mbinatorialソルバで使用できる線形$underlinetextSur$rogateコストを学習していることを示します。
実験によると、$textttSurCo$は最先端のドメインエキスパートアプローチよりも高速なソリューションを見つける。
論文 参考訳(メタデータ) (2022-10-22T20:42:06Z) - LQF: Linear Quadratic Fine-Tuning [114.3840147070712]
本稿では,非線形微調整に匹敵する性能を実現する事前学習モデルの線形化手法を提案する。
LQFはアーキテクチャの単純な変更、損失関数、そして一般的に分類に使用される最適化で構成されている。
論文 参考訳(メタデータ) (2020-12-21T06:40:20Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。