論文の概要: FMIP: Joint Continuous-Integer Flow For Mixed-Integer Linear Programming
- arxiv url: http://arxiv.org/abs/2507.23390v2
- Date: Mon, 29 Sep 2025 07:41:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 19:34:21.423192
- Title: FMIP: Joint Continuous-Integer Flow For Mixed-Integer Linear Programming
- Title(参考訳): FMIP: 混合整数線形計画のための連成連続整数フロー
- Authors: Hongpei Li, Hui Yuan, Han Zhang, Jianghao Lin, Dongdong Ge, Mengdi Wang, Yinyu Ye,
- Abstract要約: Mixed-Integer Linear Programming (MILP)は、複雑な意思決定問題の基本的なツールである。
混合整数線形計画法(FMIP)のための連立連続整数フローを提案する。これはMILPソリューションにおける整数変数と連続変数の共分散をモデル化する最初の生成フレームワークである。
FMIPは任意のバックボーンネットワークや様々なダウンストリームソルバと完全に互換性があり、現実世界のMILPアプリケーションにも適している。
- 参考スコア(独自算出の注目度): 52.52020895303244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixed-Integer Linear Programming (MILP) is a foundational tool for complex decision-making problems. However, the NP-hard nature of MILP presents a significant computational challenge, motivating the development of machine learning-based heuristic solutions to accelerate downstream solvers. While recent generative models have shown promise in learning powerful heuristics, they suffer from a critical limitation. That is, they model the distribution of only the integer variables and fail to capture the intricate coupling between integer and continuous variables, creating an information bottleneck and ultimately leading to suboptimal solutions. To this end, we propose Joint Continuous-Integer Flow for Mixed-Integer Linear Programming (FMIP), which is the first generative framework that models the joint distribution of both integer and continuous variables for MILP solutions. Built upon the joint modeling paradigm, a holistic guidance mechanism is designed to steer the generative trajectory, actively refining solutions toward optimality and feasibility during the inference process. Extensive experiments on eight standard MILP benchmarks demonstrate the superior performance of FMIP against existing baselines, reducing the primal gap by 41.34% on average. Moreover, we show that FMIP is fully compatible with arbitrary backbone networks and various downstream solvers, making it well-suited for a broad range of real-world MILP applications.
- Abstract(参考訳): Mixed-Integer Linear Programming (MILP)は、複雑な意思決定問題の基本的なツールである。
しかし、MILPのNPハードな性質は、ダウンストリームソルバを高速化する機械学習ベースのヒューリスティックソリューションの開発を動機付け、重要な計算課題を提示している。
最近の生成モデルは強力なヒューリスティックを学習する上で有望であることを示しているが、それらは限界に悩まされている。
すなわち、それらは整数変数のみの分布をモデル化し、整数変数と連続変数の間の複雑な結合を捉えることができず、情報のボトルネックを生じさせ、最終的には準最適解へと導く。
この目的のために,MILPソリューションにおける整数変数と連続変数の共分散をモデル化する最初の生成フレームワークであるFMIP(Joint Continuous-Integer Flow for Mixed-Integer Linear Programming)を提案する。
ジョイント・モデリング・パラダイムに基づいて構築された全体論的誘導機構は、生成軌道を操縦し、推論過程における最適性と実現可能性に対する解を積極的に洗練するように設計されている。
8つの標準MILPベンチマークの大規模な実験は、FMIPの既存のベースラインに対する優れた性能を示し、原始的なギャップを平均41.34%削減した。
さらに、FMIPは任意のバックボーンネットワークや様々なダウンストリームソルバと完全に互換性があり、現実世界のMILPアプリケーションに適していることを示す。
関連論文リスト
- Fast and Interpretable Mixed-Integer Linear Program Solving by Learning Model Reduction [24.3088703166792]
本稿では,MILPの縮小モデルと等価モデルを中間段階として学習することを目的とする。
縮小モデルはしばしば解釈可能な操作に対応しており、既存の商用解法よりもはるかに高速に大規模MILP問題を解くことができる。
本稿では,モデル縮小学習タスクの性能向上に寄与する嗜好情報を捕捉し,表現するための注意機構を提案する。
論文 参考訳(メタデータ) (2024-12-31T06:50:42Z) - RL-SPH: Learning to Achieve Feasible Solutions for Integer Linear Programs [3.3894236476098185]
RL-SPHは、非二項整数を含むILPに対しても独立に実現可能な解を生成することができる新しい強化学習ベーススタートプライマーである。
実験により、RL-SPHは、既存の原始よりも平均44倍低い原始ギャップと2.3倍低い積分を達成し、高品質な実現可能な解を迅速に得ることが示された。
論文 参考訳(メタデータ) (2024-11-29T07:23:34Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
生成拡散モデルは、様々なクロスドメインアプリケーションで人気がある。
これらのモデルは複雑なネットワーク最適化問題に対処する上で有望である。
本稿では拡散モデルに基づく解生成という,拡散モデル生成のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Deep learning enhanced mixed integer optimization: Learning to reduce model dimensionality [0.0]
この研究は、Mixed-Integer Programmingに固有の計算複雑性に対処するフレームワークを導入する。
ディープラーニングを利用することで、MIPインスタンス間の共通構造を特定し、活用する問題固有モデルを構築する。
本稿では,モデルの堅牢性と一般化性を高める合成データを生成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-17T19:15:13Z) - An Incentive Mechanism for Federated Learning Based on Multiple Resource
Exchange [5.385462087305977]
Federated Learning(FL)は、機械学習におけるプライバシー問題に対処する分散機械学習パラダイムである。
ユーザをモデルオーナ(MO)とデータオーナ(DO)の2つの役割に分類する。
提案した協調計算フレームワークは、FLタスクの完了までの全体の時間を最小化しつつ、95%以上の精度を達成可能であることを示す。
論文 参考訳(メタデータ) (2023-12-13T12:28:37Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - MIP-GNN: A Data-Driven Framework for Guiding Combinatorial Solvers [13.790116387956703]
混合整数プログラミング(MIP)技術は最適化問題の定式化と解法を提供する。
MIP-GNNは、データ駆動の洞察でそのような問題を解決するための一般的なフレームワークである。
MIP-GNNを最先端のMIP解決器に統合し,ノード選択やウォームスタートといったタスクに適用する。
論文 参考訳(メタデータ) (2022-05-27T19:34:14Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。