論文の概要: Solve Large-scale Unit Commitment Problems by Physics-informed Graph
Learning
- arxiv url: http://arxiv.org/abs/2311.15216v1
- Date: Sun, 26 Nov 2023 07:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 18:45:59.532077
- Title: Solve Large-scale Unit Commitment Problems by Physics-informed Graph
Learning
- Title(参考訳): 物理インフォームドグラフ学習による大規模単位コミットメント問題の解法
- Authors: Jingtao Qin, Nanpeng Yu
- Abstract要約: 単位コミットメント(UC)問題は一般的に混合整数プログラム(MIP)として定式化され、分岐とバウンド(B&B)方式で解決される。
グラフニューラルネットワーク(GNN)の最近の進歩により、最新のMIPソルバにおけるB&Bアルゴリズムを、潜水と分岐の学習によって強化することができる。
- 参考スコア(独自算出の注目度): 1.1748284119769041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unit commitment (UC) problems are typically formulated as mixed-integer
programs (MIP) and solved by the branch-and-bound (B&B) scheme. The recent
advances in graph neural networks (GNN) enable it to enhance the B&B algorithm
in modern MIP solvers by learning to dive and branch. Existing GNN models that
tackle MIP problems are mostly constructed from mathematical formulation, which
is computationally expensive when dealing with large-scale UC problems. In this
paper, we propose a physics-informed hierarchical graph convolutional network
(PI-GCN) for neural diving that leverages the underlying features of various
components of power systems to find high-quality variable assignments.
Furthermore, we adopt the MIP model-based graph convolutional network (MB-GCN)
for neural branching to select the optimal variables for branching at each node
of the B&B tree. Finally, we integrate neural diving and neural branching into
a modern MIP solver to establish a novel neural MIP solver designed for
large-scale UC problems. Numeral studies show that PI-GCN has better
performance and scalability than the baseline MB-GCN on neural diving.
Moreover, the neural MIP solver yields the lowest operational cost and
outperforms a modern MIP solver for all testing days after combining it with
our proposed neural diving model and the baseline neural branching model.
- Abstract(参考訳): 単位コミットメント(UC)問題は一般的に混合整数プログラム(MIP)として定式化され、分岐とバウンド(B&B)方式で解決される。
グラフニューラルネットワーク(GNN)の最近の進歩により、最新のMIPソルバにおけるB&Bアルゴリズムを、潜水と分岐の学習によって強化することができる。
MIP問題に対処する既存のGNNモデルは、大規模なUC問題を扱う際に計算コストがかかる数学的定式化によって構築されている。
本稿では,電力系統の様々な構成要素の基盤的特徴を活かし,高品質な可変代入を求めるニューラルダイビングのための物理計算型階層型グラフ畳み込みネットワーク(pi-gcn)を提案する。
さらに,MIPモデルに基づくグラフ畳み込みネットワーク(MB-GCN)を神経分岐に適用し,B&Bツリーの各ノードで分岐する最適な変数を選択する。
最後に、ニューラルダイビングとニューラルブランチを現代のMIPソルバに統合し、大規模UC問題用に設計された新しいニューラルMIPソルバを確立する。
多くの研究により、PI-GCNはニューラルダイビングのベースラインMB-GCNよりも性能とスケーラビリティが優れていることが示されている。
さらに,提案するニューラルダイビングモデルとベースラインニューラル分岐モデルを組み合わせた場合,ニューラルmipソルバは運用コストが最も低く,最新のmipソルバよりも優れた性能を発揮する。
関連論文リスト
- Deep learning enhanced mixed integer optimization: Learning to reduce model dimensionality [0.0]
この研究は、Mixed-Integer Programmingに固有の計算複雑性に対処するフレームワークを導入する。
ディープラーニングを利用することで、MIPインスタンス間の共通構造を特定し、活用する問題固有モデルを構築する。
本稿では,モデルの堅牢性と一般化性を高める合成データを生成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-17T19:15:13Z) - NN-Steiner: A Mixed Neural-algorithmic Approach for the Rectilinear
Steiner Minimum Tree Problem [5.107107601277712]
ICレイアウト設計において重要となるリチ線形スタイナー最小木(RSMT)問題に着目する。
提案するNN-Steinerは,RSMTを演算するための新しいニューラル・アルゴリズムフレームワークである。
特にNN-Steinerは、アルゴリズムフレームワーク内で繰り返し呼び出される4つのニューラルネットワーク(NN)コンポーネントのみを必要とする。
論文 参考訳(メタデータ) (2023-12-17T02:42:11Z) - Mixed-Integer Optimisation of Graph Neural Networks for Computer-Aided
Molecular Design [4.593587844188084]
ReLUニューラルネットワークは、混合整数線形プログラミング(MILP)の制約としてモデル化されている。
本稿では、ReLUグラフ畳み込みニューラルネットワークの定式化と、ReLUグラフSAGEモデルのMILP定式化を提案する。
これらの定式化により、グローバルな最適性に埋め込まれた訓練されたGNNで最適化問題を解くことができる。
論文 参考訳(メタデータ) (2023-12-02T21:10:18Z) - MISNN: Multiple Imputation via Semi-parametric Neural Networks [9.594714330925703]
バイオメディカル・ソーシャル・エコノメトリー研究において、多重計算(Multiple Imputation, MI)は、欠落した価値問題に広く応用されている。
提案するMISNNは,MIの特徴選択を取り入れた,新規で効率的なアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-02T21:45:36Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Graph Neural Networks for Scalable Radio Resource Management:
Architecture Design and Theoretical Analysis [31.372548374969387]
本稿では,大規模無線資源管理問題にグラフニューラルネットワーク(GNN)を適用することを提案する。
提案手法はスケーラビリティが高く,1つのGPU上で1,000ドルのトランシーバペアを6ミリ秒以内で行う干渉チャネルにおけるビームフォーミング問題を解くことができる。
論文 参考訳(メタデータ) (2020-07-15T11:43:32Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。