論文の概要: EvoOpt-LLM: Evolving industrial optimization models with large language models
- arxiv url: http://arxiv.org/abs/2602.01082v1
- Date: Sun, 01 Feb 2026 07:58:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.584799
- Title: EvoOpt-LLM: Evolving industrial optimization models with large language models
- Title(参考訳): EvoOpt-LLM:大規模言語モデルによる産業最適化モデルの進化
- Authors: Yiliu He, Tianle Li, Binghao Ji, Zhiyuan Liu, Di Huang,
- Abstract要約: EvoOpt-LLMは産業最適化モデリングの全ライフサイクルをサポートする統一LLMベースのフレームワークである。
生成率は91%、実行可能性は65.9%であり、トレーニングサンプルはわずか3,000であり、1500サンプル以下で重要なパフォーマンス向上が期待できる。
制約注入モジュールは、元の目的を保ちながら既存のMILPモデルを確実に増強し、可変プルーニングモジュールは計算効率を高め、400サンプルしか持たない中型のLPモデルでF1スコア0.56を達成する。
- 参考スコア(独自算出の注目度): 43.621054283138115
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization modeling via mixed-integer linear programming (MILP) is fundamental to industrial planning and scheduling, yet translating natural-language requirements into solver-executable models and maintaining them under evolving business rules remains highly expertise-intensive. While large language models (LLMs) offer promising avenues for automation, existing methods often suffer from low data efficiency, limited solver-level validity, and poor scalability to industrial-scale problems. To address these challenges, we present EvoOpt-LLM, a unified LLM-based framework supporting the full lifecycle of industrial optimization modeling, including automated model construction, dynamic business-constraint injection, and end-to-end variable pruning. Built on a 7B-parameter LLM and adapted via parameter-efficient LoRA fine-tuning, EvoOpt-LLM achieves a generation rate of 91% and an executability rate of 65.9% with only 3,000 training samples, with critical performance gains emerging under 1,500 samples. The constraint injection module reliably augments existing MILP models while preserving original objectives, and the variable pruning module enhances computational efficiency, achieving an F1 score of ~0.56 on medium-sized LP models with only 400 samples. EvoOpt-LLM demonstrates a practical, data-efficient approach to industrial optimization modeling, reducing reliance on expert intervention while improving adaptability and solver efficiency.
- Abstract(参考訳): 混合整数線形プログラミング(MILP)による最適化モデリングは、産業計画とスケジューリングの基礎であるが、自然言語要求を解決可能なモデルに翻訳し、進化するビジネスルールの下でそれらを維持することは、非常に専門性に重点を置いている。
大規模言語モデル(LLM)は自動化のための有望な道を提供するが、既存の手法は、しばしばデータ効率の低下、ソルバレベルの妥当性の制限、産業規模の問題に対するスケーラビリティの低下に悩まされる。
これらの課題に対処するため,産業最適化モデリングのライフサイクル全体をサポートする統一LLMベースのフレームワークであるEvoOpt-LLMを提案する。
7Bパラメトリ LLM をベースとしてパラメータ効率のよい LoRA 微調整を施し、EvoOpt-LLM は 91% の生成率と65.9% の実行率を達成し、3,000 のトレーニングサンプルしか持たない。
制約注入モジュールは、元の目的を保ちながら既存のMILPモデルを確実に増強し、可変プルーニングモジュールは計算効率を高め、400サンプルしか持たない中型のLPモデルでF1スコアが0.56に達する。
EvoOpt-LLMは、産業最適化モデリングへの実践的で、データ効率のよいアプローチを示し、専門家の介入への依存を減らし、適応性とソルバ効率を向上させる。
関連論文リスト
- MM-HELIX: Boosting Multimodal Long-Chain Reflective Reasoning with Holistic Platform and Adaptive Hybrid Policy Optimization [103.74675519953898]
ロングチェーンのリフレクティブ推論は、複雑な現実世界の問題を解決するための前提条件である。
我々は42の難解な合成タスクの1,260のサンプルからなるベンチマークを構築した。
トレーニング後のデータを生成し、そのようなデータを活用するための学習パラダイムを探索する。
論文 参考訳(メタデータ) (2025-10-09T17:53:58Z) - CALM Before the STORM: Unlocking Native Reasoning for Optimization Modeling [60.55856973678002]
大規模推論モデル (LRM) は、複雑な多段階推論において強力な機能を示した。
既存のドメイン適応手法は、元々は命令調整モデル用に設計されていたが、現代のLEMの高度な推論パターンをうまく利用できなかった。
我々は、最適化モデリングタスクのためのネイティブ推論モード内でのLEMを段階的に洗練するフレームワークである textbfCALM を提案する。
論文 参考訳(メタデータ) (2025-10-05T13:38:31Z) - Data-Driven Differential Evolution in Tire Industry Extrusion: Leveraging Surrogate Models [0.0]
本研究では,複雑な実世界の製造システムを最適化するためのサロゲートに基づくデータ駆動手法を提案する。
機械学習モデルは、システム挙動を近似し、サロゲートモデルを構築するために使用され、それは、調整されたメタヒューリスティックなアプローチに統合される。
以上の結果から,サロゲートに基づく最適化手法は歴史的最良構成よりも優れていた。
論文 参考訳(メタデータ) (2025-07-15T10:52:45Z) - Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [48.15777554876988]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - LENSLLM: Unveiling Fine-Tuning Dynamics for LLM Selection [11.353302879735862]
オープンソースのLarge Language Models (LLM) と様々な下流タスクは効率的なモデル選択を必要とする。
LLMの一般化能力を評価するための適切なレンズを提供する新しい理論フレームワークを提案する。
特に, LLMの微調整ダイナミクスを明らかにするPAC-Bayesian Generalization Boundを導出する。
次に,ニューラルタンジェントカーネル(NTK)をベースとしたRectified Scaling ModelであるLENSLLMを紹介し,正確な性能予測を実現する。
論文 参考訳(メタデータ) (2025-05-01T15:07:32Z) - Automatic MILP Model Construction for Multi-Robot Task Allocation and Scheduling Based on Large Language Models [13.960259962694126]
既存の手法は、動的な生産制約に適応する際の課題に直面します。
企業には 生産スケジュールデータに対する 高いプライバシ要件があります
本研究では,知識強化型混合整数線形時間(MILP)自動フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-18T01:45:19Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - ORLM: A Customizable Framework in Training Large Models for Automated Optimization Modeling [15.67321902882617]
本稿では,オープンソースのLLMをトレーニングし,モデリングやソルバコードの開発を最適化する実行可能なパスを提案する。
この研究は、実用的なOR問題の解決においてLLMを評価するための最初の産業ベンチマークであるIndustrialORも導入した。
論文 参考訳(メタデータ) (2024-05-28T01:55:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。