論文の概要: OptiMUS: Scalable Optimization Modeling with (MI)LP Solvers and Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.10172v1
- Date: Thu, 15 Feb 2024 18:19:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 14:24:24.230463
- Title: OptiMUS: Scalable Optimization Modeling with (MI)LP Solvers and Large
Language Models
- Title(参考訳): OptiMUS: (MI)LPソルバーと大規模言語モデルによるスケーラブルな最適化モデリング
- Authors: Ali AhmadiTeshnizi, Wenzhi Gao, Madeleine Udell
- Abstract要約: 本稿では,Large Language Model (LL)MベースのエージェントであるOptiMUSを紹介する。
OptiMUSは、数学的モデルを開発し、ソルバコードを書き、デバッグし、生成したソリューションを評価し、これらの評価に基づいてモデルとコードを改善することができる。
実験によると、OptiMUSは、簡単なデータセットで既存の最先端メソッドを20%以上、ハードデータセットで30%以上上回っている。
- 参考スコア(独自算出の注目度): 21.519880445683107
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Optimization problems are pervasive in sectors from manufacturing and
distribution to healthcare. However, most such problems are still solved
heuristically by hand rather than optimally by state-of-the-art solvers because
the expertise required to formulate and solve these problems limits the
widespread adoption of optimization tools and techniques. This paper introduces
OptiMUS, a Large Language Model (LLM)-based agent designed to formulate and
solve (mixed integer) linear programming problems from their natural language
descriptions. OptiMUS can develop mathematical models, write and debug solver
code, evaluate the generated solutions, and improve its model and code based on
these evaluations. OptiMUS utilizes a modular structure to process problems,
allowing it to handle problems with long descriptions and complex data without
long prompts. Experiments demonstrate that OptiMUS outperforms existing
state-of-the-art methods on easy datasets by more than $20\%$ and on hard
datasets (including a new dataset, NLP4LP, released with this paper that
features long and complex problems) by more than $30\%$.
- Abstract(参考訳): 最適化問題は製造や流通から医療まで幅広い分野に及んでいる。
しかし、これらの問題の多くは、最適化ツールや技術の普及が制限されるため、最先端の問題解決者によって最適ではなく、手動で解決される。
本稿では,自然言語記述から線形計画問題(混合整数)を定式化し,解くように設計された大規模言語モデル(llm)に基づくエージェントoptimusを提案する。
OptiMUSは、数学的モデルを開発し、ソルバコードを書き、デバッグし、生成したソリューションを評価し、これらの評価に基づいてモデルとコードを改善することができる。
OptiMUSはモジュール構造を利用して問題を処理し、長い記述や複雑なデータを長いプロンプトなしで処理することができる。
実験によると、optimusは、簡単なデータセットで既存の最先端のメソッドを20〜%$以上、ハードデータセット(この論文でリリースされた新しいデータセット、nlp4lpを含む)で30〜%$以上上回っている。
関連論文リスト
- Functional Graphical Models: Structure Enables Offline Data-Driven
Optimization [121.57202302457135]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - OptiMUS: Optimization Modeling Using MIP Solvers and large language
models [21.519880445683107]
そこで我々は,Large Language Model (LLM) ベースのエージェントであるOptiMUSを紹介した。
エージェントをベンチマークするために,線形プログラミング(LP)と混合整数線形プログラミング(MILP)の新たなデータセットであるNLP4LPを提案する。
実験の結果,OptiMUS は基本的な LLM 促進戦略の約2倍の問題を解くことがわかった。
論文 参考訳(メタデータ) (2023-10-09T19:47:03Z) - Large Language Models as Optimizers [111.8655813084752]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - Diagnosing Infeasible Optimization Problems Using Large Language Models [9.101849365688905]
実用不可能な最適化モデルに関する対話的な会話を行うGUIを備えた,先駆的な自然言語ベースのシステムであるOptiChatを紹介する。
OptiChatは最適化モデル自体の自然言語記述を提供し、実現不可能の潜在的な情報源を特定し、モデルを実現可能にするための提案を提供する。
我々は、OptiChatの信頼性を高めるために、少数ショット学習、専門家チェーン、キー検索、感情プロンプトを利用する。
論文 参考訳(メタデータ) (2023-08-23T04:34:05Z) - A Framework for Inherently Interpretable Optimization Models [0.0]
何十年も前に難解だった大規模な問題の解決は、今や日常的な課題である。
1つの大きな障壁は、最適化ソフトウェアがブラックボックスとして認識できることである。
本稿では、本質的に理解しやすい説明規則を持つ解を導出する最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-26T10:32:00Z) - Knowledge engineering mixed-integer linear programming: constraint
typology [2.4002205752931625]
混合整数線形プログラムMILPの制約型について検討する。
milpは、実生活のスケジューリング、ルーティング、計画、リソース割り当て、時間的最適化問題のモデリングと解決によく使われる数学的プログラミング手法である。
論文 参考訳(メタデータ) (2021-02-20T20:07:24Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - A Knowledge Representation Approach to Automated Mathematical Modelling [1.8907108368038215]
我々はMILPモデルオントロジーとMILP定式化の新しい制約型について提案する。
MILPは、リアルタイムスケジューリング、ルーティング、計画、リソース割り当て、タイムタブル最適化の問題をモデル化し、解くために一般的に用いられる数学的プログラミング手法である。
本研究の目的は,業務最適化問題の自然言語記述をMILP形式仕様にマッピングする,MILPの機械可読な知識表現を開発することである。
論文 参考訳(メタデータ) (2020-11-12T10:29:57Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Model Inversion Networks for Model-Based Optimization [110.24531801773392]
スコアから入力への逆写像を学習するモデル反転ネットワーク(MIN)を提案する。
MINは高次元の入力空間にスケールでき、コンテキスト最適化と非コンテキスト最適化の両方にオフラインログデータを利用する。
我々は,ベイズ最適化の文献から,画像やタンパク質の設計に対する高次元モデルベース最適化問題,ログデータからのコンテキスト的帯域最適化といったタスクのMINを評価した。
論文 参考訳(メタデータ) (2019-12-31T18:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。