論文の概要: OptiMUS: Optimization Modeling Using MIP Solvers and large language
models
- arxiv url: http://arxiv.org/abs/2310.06116v2
- Date: Mon, 30 Oct 2023 18:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 22:25:19.640100
- Title: OptiMUS: Optimization Modeling Using MIP Solvers and large language
models
- Title(参考訳): OptiMUS: MIPソルバーと大規模言語モデルを用いた最適化モデリング
- Authors: Ali AhmadiTeshnizi, Wenzhi Gao, Madeleine Udell
- Abstract要約: そこで我々は,Large Language Model (LLM) ベースのエージェントであるOptiMUSを紹介した。
エージェントをベンチマークするために,線形プログラミング(LP)と混合整数線形プログラミング(MILP)の新たなデータセットであるNLP4LPを提案する。
実験の結果,OptiMUS は基本的な LLM 促進戦略の約2倍の問題を解くことがわかった。
- 参考スコア(独自算出の注目度): 21.519880445683107
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Optimization problems are pervasive across various sectors, from
manufacturing and distribution to healthcare. However, most such problems are
still solved heuristically by hand rather than optimally by state-of-the-art
solvers, as the expertise required to formulate and solve these problems limits
the widespread adoption of optimization tools and techniques. We introduce
OptiMUS, a Large Language Model (LLM)-based agent designed to formulate and
solve MILP problems from their natural language descriptions. OptiMUS is
capable of developing mathematical models, writing and debugging solver code,
developing tests, and checking the validity of generated solutions. To
benchmark our agent, we present NLP4LP, a novel dataset of linear programming
(LP) and mixed integer linear programming (MILP) problems. Our experiments
demonstrate that OptiMUS solves nearly twice as many problems as a basic LLM
prompting strategy. OptiMUS code and NLP4LP dataset are available at
\href{https://github.com/teshnizi/OptiMUS}{https://github.com/teshnizi/OptiMUS}
- Abstract(参考訳): 最適化問題は製造や流通から医療に至るまで、様々な分野に広がっている。
しかし、そのような問題の多くは、最先端の解法で最適に解くのではなく、手でヒューリスティックに解き明かされ、これらの問題を定式化し解決するのに必要な専門知識は、最適化ツールや技術の普及を妨げている。
我々は,自然言語記述からmilp問題を定式化し,解決するために設計された大規模言語モデル(llm)ベースのエージェントであるoptimusを紹介する。
OptiMUSは、数学的モデルの開発、ソルバコードの記述とデバッギング、テストの開発、生成したソリューションの有効性の検証を行うことができる。
エージェントをベンチマークするために,線形プログラミング(LP)と混合整数線形プログラミング(MILP)の新たなデータセットであるNLP4LPを提案する。
実験の結果,OptiMUS は基本的な LLM 促進戦略の約2倍の問題を解くことがわかった。
OptiMUSコードとNLP4LPデータセットは \href{https://github.com/teshnizi/OptiMUS}{https://github.com/teshnizi/OptiMUS} で入手できる。
関連論文リスト
- OptiMUS: Scalable Optimization Modeling with (MI)LP Solvers and Large
Language Models [21.519880445683107]
本稿では,Large Language Model (LL)MベースのエージェントであるOptiMUSを紹介する。
OptiMUSは、数学的モデルを開発し、ソルバコードを書き、デバッグし、生成したソリューションを評価し、これらの評価に基づいてモデルとコードを改善することができる。
実験によると、OptiMUSは、簡単なデータセットで既存の最先端メソッドを20%以上、ハードデータセットで30%以上上回っている。
論文 参考訳(メタデータ) (2024-02-15T18:19:18Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Large Language Models as Optimizers [111.8655813084752]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - Diagnosing Infeasible Optimization Problems Using Large Language Models [9.101849365688905]
実用不可能な最適化モデルに関する対話的な会話を行うGUIを備えた,先駆的な自然言語ベースのシステムであるOptiChatを紹介する。
OptiChatは最適化モデル自体の自然言語記述を提供し、実現不可能の潜在的な情報源を特定し、モデルを実現可能にするための提案を提供する。
我々は、OptiChatの信頼性を高めるために、少数ショット学習、専門家チェーン、キー検索、感情プロンプトを利用する。
論文 参考訳(メタデータ) (2023-08-23T04:34:05Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - OMLT: Optimization & Machine Learning Toolkit [54.58348769621782]
最適化と機械学習ツールキット(OMLT)は、ニューラルネットワークと勾配ブーストツリーサロゲートモデルを組み込んだオープンソースのソフトウェアパッケージである。
我々は、OMLTを可能とした最適化技術の進歩について論じ、OMLTが代数モデリング言語であるPyomoとシームレスに統合されていることを示す。
論文 参考訳(メタデータ) (2022-02-04T22:23:45Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Knowledge engineering mixed-integer linear programming: constraint
typology [2.4002205752931625]
混合整数線形プログラムMILPの制約型について検討する。
milpは、実生活のスケジューリング、ルーティング、計画、リソース割り当て、時間的最適化問題のモデリングと解決によく使われる数学的プログラミング手法である。
論文 参考訳(メタデータ) (2021-02-20T20:07:24Z) - A Knowledge Representation Approach to Automated Mathematical Modelling [1.8907108368038215]
我々はMILPモデルオントロジーとMILP定式化の新しい制約型について提案する。
MILPは、リアルタイムスケジューリング、ルーティング、計画、リソース割り当て、タイムタブル最適化の問題をモデル化し、解くために一般的に用いられる数学的プログラミング手法である。
本研究の目的は,業務最適化問題の自然言語記述をMILP形式仕様にマッピングする,MILPの機械可読な知識表現を開発することである。
論文 参考訳(メタデータ) (2020-11-12T10:29:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。