論文の概要: OptiMUS-0.3: Using Large Language Models to Model and Solve Optimization Problems at Scale
- arxiv url: http://arxiv.org/abs/2407.19633v1
- Date: Mon, 29 Jul 2024 01:31:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 15:25:50.047914
- Title: OptiMUS-0.3: Using Large Language Models to Model and Solve Optimization Problems at Scale
- Title(参考訳): OptiMUS-0.3:大規模言語モデルを用いた大規模最適化問題のモデル化と解決
- Authors: Ali AhmadiTeshnizi, Wenzhi Gao, Herman Brunborg, Shayan Talaei, Madeleine Udell,
- Abstract要約: 本稿では,Large Language Model (LLM) を用いた自然言語記述から線形プログラミング問題の定式化と解法を提案する。
本システムでは,数理モデルの開発,ソルバコードの記述とデバッグ,生成したソリューションの評価,モデルとコードの効率性と正確性の向上を実現している。
実験によると、OptiMUS-0.3は、簡単なデータセットで12%以上、ハードデータセットで8%以上、既存の最先端メソッドよりも優れています。
- 参考スコア(独自算出の注目度): 16.33736498565436
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Optimization problems are pervasive in sectors from manufacturing and distribution to healthcare. However, most such problems are still solved heuristically by hand rather than optimally by state-of-the art solvers because the expertise required to formulate and solve these problems limits the widespread adoption of optimization tools and techniques. We introduce a Large Language Model (LLM)-based system designed to formulate and solve (mixed integer) linear programming problems from their natural language descriptions. Our system is capable of developing mathematical models, writing and debugging solver code, evaluating the generated solutions, and improving efficiency and correctness of its model and code based on these evaluations. OptiMUS-0.3 utilizes a modular structure to process problems, allowing it to handle problems with long descriptions and complex data without long prompts. Experiments demonstrate that OptiMUS-0.3 outperforms existing state-of-the-art methods on easy datasets by more than 12% and on hard datasets (including a new dataset, NLP4LP, released with this paper that features long and complex problems) by more than 8%.
- Abstract(参考訳): 最適化問題は製造や流通から医療まで幅広い分野に及んでいる。
しかし、これらの問題の多くは、最適化ツールやテクニックを広く採用することを制限するため、最先端の問題解決者によって最適ではなく、手でヒューリスティックに解決される。
本稿では,Large Language Model (LLM) ベースのシステムを導入し,その自然言語記述から線形プログラミング問題(混合整数)を定式化し,解決する。
本システムは,数理モデルの開発,ソルバコードの記述とデバッギング,生成したソリューションの評価,およびこれらの評価に基づいてモデルとコードの効率と正確性を向上させることができる。
OptiMUS-0.3はモジュール構造を利用して問題を処理し、長い説明や複雑なデータを長いプロンプトなしで処理できる。
実験によると、OptiMUS-0.3は、簡単なデータセットの既存の最先端メソッドを12%以上、ハードデータセット(新しいデータセットであるNLP4LPを含む)を8%以上上回っている。
関連論文リスト
- Benchmarking LLMs for Optimization Modeling and Enhancing Reasoning via Reverse Socratic Synthesis [60.23133327001978]
大規模言語モデル(LLM)は、数学的推論においてその問題解決能力を示した。
本稿では,人間可読入力と出力を用いたエンドツーエンド最適化問題のベンチマークであるE-OPTを提案する。
論文 参考訳(メタデータ) (2024-07-13T13:27:57Z) - Solving General Natural-Language-Description Optimization Problems with Large Language Models [34.50671063271608]
外部ソルバでLLMを増強するOPtLLMという新しいフレームワークを提案する。
OptLLMは自然言語でユーザクエリを受け付け、それらを数学的定式化やプログラミングコードに変換し、解決者を呼び出して結果を計算する。
OptLLMフレームワークのいくつかの機能は、2023年6月から試用されている。
論文 参考訳(メタデータ) (2024-07-09T07:11:10Z) - OptiMUS: Scalable Optimization Modeling with (MI)LP Solvers and Large
Language Models [21.519880445683107]
本稿では,Large Language Model (LL)MベースのエージェントであるOptiMUSを紹介する。
OptiMUSは、数学的モデルを開発し、ソルバコードを書き、デバッグし、生成したソリューションを評価し、これらの評価に基づいてモデルとコードを改善することができる。
実験によると、OptiMUSは、簡単なデータセットで既存の最先端メソッドを20%以上、ハードデータセットで30%以上上回っている。
論文 参考訳(メタデータ) (2024-02-15T18:19:18Z) - Functional Graphical Models: Structure Enables Offline Data-Driven
Optimization [121.57202302457135]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - OptiMUS: Optimization Modeling Using MIP Solvers and large language
models [21.519880445683107]
そこで我々は,Large Language Model (LLM) ベースのエージェントであるOptiMUSを紹介した。
エージェントをベンチマークするために,線形プログラミング(LP)と混合整数線形プログラミング(MILP)の新たなデータセットであるNLP4LPを提案する。
実験の結果,OptiMUS は基本的な LLM 促進戦略の約2倍の問題を解くことがわかった。
論文 参考訳(メタデータ) (2023-10-09T19:47:03Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z) - Diagnosing Infeasible Optimization Problems Using Large Language Models [9.101849365688905]
実用不可能な最適化モデルに関する対話的な会話を行うGUIを備えた,先駆的な自然言語ベースのシステムであるOptiChatを紹介する。
OptiChatは最適化モデル自体の自然言語記述を提供し、実現不可能の潜在的な情報源を特定し、モデルを実現可能にするための提案を提供する。
我々は、OptiChatの信頼性を高めるために、少数ショット学習、専門家チェーン、キー検索、感情プロンプトを利用する。
論文 参考訳(メタデータ) (2023-08-23T04:34:05Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。