論文の概要: LLMize: A Framework for Large Language Model-Based Numerical Optimization
- arxiv url: http://arxiv.org/abs/2601.00874v1
- Date: Tue, 30 Dec 2025 20:05:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:21.815636
- Title: LLMize: A Framework for Large Language Model-Based Numerical Optimization
- Title(参考訳): LLMize: 大規模言語モデルに基づく数値最適化のためのフレームワーク
- Authors: M. Rizki Oktavian,
- Abstract要約: 大規模言語モデル(LLM)は、最近、従来の言語タスク以上の強力な推論能力を示している。
本稿では,LLM駆動最適化を実現するオープンソースPythonフレームワークであるLLMizeを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models (LLMs) have recently shown strong reasoning capabilities beyond traditional language tasks, motivating their use for numerical optimization. This paper presents LLMize, an open-source Python framework that enables LLM-driven optimization through iterative prompting and in-context learning. LLMize formulates optimization as a black-box process in which candidate solutions are generated in natural language, evaluated by an external objective function, and refined over successive iterations using solution-score feedback. The framework supports multiple optimization strategies, including Optimization by Prompting (OPRO) and hybrid LLM-based methods inspired by evolutionary algorithms and simulated annealing. A key advantage of LLMize is the ability to inject constraints, rules, and domain knowledge directly through natural language descriptions, allowing practitioners to define complex optimization problems without requiring expertise in mathematical programming or metaheuristic design. LLMize is evaluated on convex optimization, linear programming, the Traveling Salesman Problem, neural network hyperparameter tuning, and nuclear fuel lattice optimization. Results show that while LLM-based optimization is not competitive with classical solvers for simple problems, it provides a practical and accessible approach for complex, domain-specific tasks where constraints and heuristics are difficult to formalize.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近、従来の言語タスクを超える強力な推論能力を示し、数値最適化にその使用を動機付けている。
本稿では,反復的プロンプトとインコンテキスト学習によるLLM駆動最適化を実現する,オープンソースのPythonフレームワークであるLLMizeを提案する。
LLMizeは、自然言語で候補解が生成されるブラックボックスプロセスとして最適化を定式化し、外部目的関数で評価し、解スコアフィードバックを用いて連続的な反復に対して洗練する。
このフレームワークは、OPRO(Optimization by Prompting)や、進化的アルゴリズムやシミュレートされたアニーリングにインスパイアされたLLMベースのハイブリッド手法を含む、複数の最適化戦略をサポートしている。
LLMizeの重要な利点は、制約、ルール、ドメイン知識を直接自然言語記述を通じて注入できることであり、数学的プログラミングやメタヒューリスティック設計の専門知識を必要とせず、複雑な最適化問題を定義することができる。
LLMizeは凸最適化、線形プログラミング、トラベリングセールスマン問題、ニューラルネットワークハイパーパラメータチューニング、核燃料格子最適化に基づいて評価される。
LLMに基づく最適化は、単純な問題に対して古典的な解法と競合するわけではないが、制約やヒューリスティックが形式化が難しい複雑なドメイン固有のタスクに対して、実用的でアクセスしやすいアプローチを提供する。
関連論文リスト
- Can Large Language Models Be Trusted as Evolutionary Optimizers for Network-Structured Combinatorial Problems? [8.431866560904753]
大規模言語モデル(LLM)は、言語理解とさまざまなドメイン間の推論において強力な能力を示している。
本研究では,問題構造に係わるLLMの能力を評価するための体系的枠組みを提案する。
我々は、よく使われる進化的手法(EVO)を採用し、LLM演算子の出力忠実度を厳格に評価する包括的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Scaffolded Language Models with Language Supervision for Mixed-Autonomy: A Survey [52.00674453604779]
本調査は,戦後のLM周辺における新規構造物の設計と最適化に関する文献を整理した。
本稿では,この階層構造を足場型LMと呼び,ツールを用いた多段階プロセスに統合されたLMに焦点を当てる。
論文 参考訳(メタデータ) (2024-10-21T18:06:25Z) - LLMOPT: Learning to Define and Solve General Optimization Problems from Scratch [16.174567164068037]
最適化の一般化を促進するため,LLMOPTと呼ばれる統合学習ベースのフレームワークを提案する。
LLMOPTは、様々な最適化問題タイプを定義するための普遍モデルとして導入された5要素の定式化を構築している。
LLMOPTは線形/非線形プログラミングや混合整数プログラミングといった様々な最適化問題をモデル化することができる。
論文 参考訳(メタデータ) (2024-10-17T04:37:37Z) - LLM as a Complementary Optimizer to Gradient Descent: A Case Study in Prompt Tuning [69.95292905263393]
グラデーションベースとハイレベルなLLMは、協調最適化フレームワークを効果的に組み合わせることができることを示す。
本稿では,これらを相互に補完し,組み合わせた最適化フレームワークを効果的に連携させることができることを示す。
論文 参考訳(メタデータ) (2024-05-30T06:24:14Z) - Large Language Model-Based Evolutionary Optimizer: Reasoning with
elitism [1.1463861912335864]
大規模言語モデル(LLM)は、顕著な推論能力を示している。
本稿では,LLMが様々なシナリオにまたがるゼロショット最適化能力を有していることを主張する。
LLMを用いた数値最適化手法を提案する。
論文 参考訳(メタデータ) (2024-03-04T13:57:37Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。