論文の概要: Deep learning enhanced mixed integer optimization: Learning to reduce model dimensionality
- arxiv url: http://arxiv.org/abs/2401.09556v2
- Date: Fri, 10 May 2024 17:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 20:07:31.327692
- Title: Deep learning enhanced mixed integer optimization: Learning to reduce model dimensionality
- Title(参考訳): 深層学習による混合整数最適化:モデルの次元性向上のための学習
- Authors: Niki Triantafyllou, Maria M. Papathanasiou,
- Abstract要約: この研究は、Mixed-Integer Programmingに固有の計算複雑性に対処するフレームワークを導入する。
ディープラーニングを利用することで、MIPインスタンス間の共通構造を特定し、活用する問題固有モデルを構築する。
本稿では,モデルの堅牢性と一般化性を高める合成データを生成するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces a framework to address the computational complexity inherent in Mixed-Integer Programming (MIP) models by harnessing the potential of deep learning. By employing deep learning, we construct problem-specific heuristics that identify and exploit common structures across MIP instances. We train deep learning models to estimate complicating binary variables for target MIP problem instances. The resulting reduced MIP models are solved using standard off-the-shelf solvers. We present an algorithm for generating synthetic data enhancing the robustness and generalizability of our models across diverse MIP instances. We compare the effectiveness of (a) feed-forward neural networks (ANN) and (b) convolutional neural networks (CNN). To enhance the framework's performance, we employ Bayesian optimization for hyperparameter tuning, aiming to maximize the occurrence of global optimum solutions. We apply this framework to a flow-based facility location allocation MIP formulation that describes long-term investment planning and medium-term tactical scheduling in a personalized medicine supply chain.
- Abstract(参考訳): この研究は、深層学習の可能性を生かして、MIP(Mixed-Integer Programming)モデルに固有の計算複雑性に対処するフレームワークを導入する。
ディープラーニングを利用することで、MIPインスタンス全体にわたる共通構造を特定し、活用する問題固有のヒューリスティックを構築する。
対象のMIP問題インスタンスに対して、複雑なバイナリ変数を推定するために、ディープラーニングモデルを訓練する。
結果として得られたMIPモデルを標準オフザシェルフ解法を用いて解く。
本稿では,MIPインスタンス間のモデルの堅牢性と一般化性を向上する合成データを生成するアルゴリズムを提案する。
有効性を比較する
(a)フィードフォワードニューラルネットワーク(ANN)と
b)畳み込みニューラルネットワーク(CNN)
このフレームワークの性能を向上させるため,大域的最適解の発生を最大化するために,ハイパーパラメータチューニングのためのベイズ最適化を用いる。
この枠組みを、個人化された医療サプライチェーンにおける長期投資計画と中期的戦術スケジューリングを記述したフローベースの施設配置MIP定式化に適用する。
関連論文リスト
- Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Computational Tradeoffs of Optimization-Based Bound Tightening in ReLU
Networks [4.01907644010256]
ニューラルネットワークをRectified Linear Unit(ReLU)アクティベーションで表現するMILP(Mixed-Integer Linear Programming)モデルは、ここ10年で急速に普及している。
これにより、MILP技術を用いて、テストまたはストレス・サービヘイビアを行い、トレーニングを逆向きに改善し、予測力を活かした最適化モデルに組み込むことが可能になった。
ネットワーク構造、正規化、ラウンドリングの影響に基づき、これらのモデルを実装するためのガイドラインを提供する。
論文 参考訳(メタデータ) (2023-12-27T19:32:59Z) - Mixed-Integer Optimisation of Graph Neural Networks for Computer-Aided
Molecular Design [4.593587844188084]
ReLUニューラルネットワークは、混合整数線形プログラミング(MILP)の制約としてモデル化されている。
本稿では、ReLUグラフ畳み込みニューラルネットワークの定式化と、ReLUグラフSAGEモデルのMILP定式化を提案する。
これらの定式化により、グローバルな最適性に埋め込まれた訓練されたGNNで最適化問題を解くことができる。
論文 参考訳(メタデータ) (2023-12-02T21:10:18Z) - An Expandable Machine Learning-Optimization Framework to Sequential
Decision-Making [0.0]
逐次的意思決定問題を効率的に解決する統合予測最適化(PredOpt)フレームワークを提案する。
本稿では,機械学習(ML)における逐次依存,実現可能性,一般化といった課題に対処し,インスタンス問題に対する最適解の予測を行う。
論文 参考訳(メタデータ) (2023-11-12T21:54:53Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Probabilistic partition of unity networks for high-dimensional
regression problems [1.0227479910430863]
我々は高次元回帰問題におけるユニタリネットワーク(PPOU-Net)モデルの分割について検討する。
本稿では適応次元の減少に着目した一般的な枠組みを提案する。
PPOU-Netsは、数値実験において、同等の大きさのベースライン完全接続ニューラルネットワークを一貫して上回っている。
論文 参考訳(メタデータ) (2022-10-06T06:01:36Z) - MIP-GNN: A Data-Driven Framework for Guiding Combinatorial Solvers [13.790116387956703]
混合整数プログラミング(MIP)技術は最適化問題の定式化と解法を提供する。
MIP-GNNは、データ駆動の洞察でそのような問題を解決するための一般的なフレームワークである。
MIP-GNNを最先端のMIP解決器に統合し,ノード選択やウォームスタートといったタスクに適用する。
論文 参考訳(メタデータ) (2022-05-27T19:34:14Z) - A Survey for Solving Mixed Integer Programming via Machine Learning [76.04988886859871]
本稿では、混合整数(MIP)問題を解くための機械学習の動向について調査する。
本稿では、まず、MIPの定式化とプリミナリーと、MIPを解くための従来のアルゴリズムについて紹介する。
そして、機械学習とMIPアルゴリズムの異なる統合をさらに促進することを提唱する。
論文 参考訳(メタデータ) (2022-03-06T05:03:37Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。