論文の概要: LLM for Large-Scale Optimization Model Auto-Formulation: A Lightweight Few-Shot Learning Approach
- arxiv url: http://arxiv.org/abs/2601.09635v1
- Date: Wed, 14 Jan 2026 17:09:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.481826
- Title: LLM for Large-Scale Optimization Model Auto-Formulation: A Lightweight Few-Shot Learning Approach
- Title(参考訳): 大規模最適化モデル自動定式化のためのLLM:軽量Few-Shot学習アプローチ
- Authors: Kuo Liang, Yuhang Lu, Jianming Mao, Shuyi Sun, Chunwei Yang, Congcong Zeng, Xiao Jin, Hanzhang Qin, Ruihao Zhu, Chung-Piaw Teo,
- Abstract要約: LEAN-LLM-OPTは大規模なOPTimizationオートフォーミュレーションのためのワークフローフレームワークである。
モデリングタスクを構造化されたサブタスクに分解し、機械的なデータ処理操作を補助ツールにオフロードする。
大規模最適化モデリングタスクにおいて高い性能を達成し、最先端のアプローチと競合する。
- 参考スコア(独自算出の注目度): 10.44190976207354
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large-scale optimization is a key backbone of modern business decision-making. However, building these models is often labor-intensive and time-consuming. We address this by proposing LEAN-LLM-OPT, a LightwEight AgeNtic workflow construction framework for LLM-assisted large-scale OPTimization auto-formulation. LEAN-LLM-OPT takes as input a problem description together with associated datasets and orchestrates a team of LLM agents to produce an optimization formulation. Specifically, upon receiving a query, two upstream LLM agents dynamically construct a workflow that specifies, step-by-step, how optimization models for similar problems can be formulated. A downstream LLM agent then follows this workflow to generate the final output. Leveraging LLMs' text-processing capabilities and common modeling practices, the workflow decomposes the modeling task into a sequence of structured sub-tasks and offloads mechanical data-handling operations to auxiliary tools. This design alleviates the downstream agent's burden related to planning and data handling, allowing it to focus on the most challenging components that cannot be readily standardized. Extensive simulations show that LEAN-LLM-OPT, instantiated with GPT-4.1 and the open source gpt-oss-20B, achieves strong performance on large-scale optimization modeling tasks and is competitive with state-of-the-art approaches. In addition, in a Singapore Airlines choice-based revenue management use case, LEAN-LLM-OPT demonstrates practical value by achieving leading performance across a range of scenarios. Along the way, we introduce Large-Scale-OR and Air-NRM, the first comprehensive benchmarks for large-scale optimization auto-formulation. The code and data of this work is available at https://github.com/CoraLiang01/lean-llm-opt.
- Abstract(参考訳): 大規模な最適化は、現代のビジネス意思決定の重要なバックボーンである。
しかし、これらのモデルの構築は労働集約的で時間を要することが多い。
我々は,LEAN-LLM-OPTを提案する。LEAN-LLM-OPTは,LLMによる大規模オプティマイゼーション自動生成のためのライトウェイトエイジネティックワークフロー構築フレームワークである。
LEAN-LLM-OPTは、関連するデータセットと共に問題記述として入力を受け取り、LLMエージェントのチームを編成して最適化式を生成する。
具体的には、2つの上流LLMエージェントがクエリを受信すると、ワークフローを動的に構築し、ステップバイステップで、類似した問題に対する最適化モデルを定式化することができる。
下流のLLMエージェントがこのワークフローに従い、最終的な出力を生成する。
LLMのテキスト処理機能と一般的なモデリングプラクティスを活用して、ワークフローはモデリングタスクを構造化されたサブタスクのシーケンスに分解し、機械的なデータ処理操作を補助ツールにオフロードする。
この設計は、計画とデータハンドリングに関連する下流エージェントの負担を軽減するため、容易に標準化できない最も困難なコンポーネントに集中することができる。
GPT-4.1 とオープンソース gpt-oss-20B でインスタンス化された LEAN-LLM-OPT は、大規模な最適化モデリングタスクにおいて高い性能を示し、最先端のアプローチと競合する。
さらに、シンガポール航空の選択肢に基づく収益管理ユースケースでは、LEAN-LLM-OPTは、様々なシナリオで主要なパフォーマンスを達成することで、実用的な価値を示す。
その過程で我々は,大規模最適化オートフォーミュレーションのための総合ベンチマークであるLarge-Scale-ORとAir-NRMを紹介した。
この作業のコードとデータはhttps://github.com/CoraLiang01/lean-llm-opt.comで公開されている。
関連論文リスト
- Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [48.15777554876988]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - Efficient Model Selection for Time Series Forecasting via LLMs [52.31535714387368]
本稿では,Large Language Models (LLM) をモデル選択の軽量な代替手段として活用することを提案する。
提案手法は, LLMの固有知識と推論能力を活用することで, 明示的な性能行列の必要性を解消する。
論文 参考訳(メタデータ) (2025-04-02T20:33:27Z) - Enhancing the Reasoning Ability of Multimodal Large Language Models via Mixed Preference Optimization [65.64108848398696]
我々は、MLLMのマルチモーダル推論能力を高めるために、選好最適化(PO)プロセスを導入する。
具体的には、自動選好データ構築パイプラインを設計し、高品質で大規模なマルチモーダル推論選好データセットであるMMPRを作成する。
マルチモーダルCoT性能を向上するMPO(Mixed Preference Optimization)と呼ばれるシンプルな手法を開発した。
論文 参考訳(メタデータ) (2024-11-15T18:59:27Z) - ORLM: A Customizable Framework in Training Large Models for Automated Optimization Modeling [15.67321902882617]
本稿では,オープンソースのLLMをトレーニングし,モデリングやソルバコードの開発を最適化する実行可能なパスを提案する。
この研究は、実用的なOR問題の解決においてLLMを評価するための最初の産業ベンチマークであるIndustrialORも導入した。
論文 参考訳(メタデータ) (2024-05-28T01:55:35Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。