論文の概要: Efficient reformulations of ReLU deep neural networks for surrogate modelling in power system optimisation
- arxiv url: http://arxiv.org/abs/2601.14673v1
- Date: Wed, 21 Jan 2026 05:40:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.244464
- Title: Efficient reformulations of ReLU deep neural networks for surrogate modelling in power system optimisation
- Title(参考訳): 電力系統最適化における代理モデリングのためのReLUディープニューラルネットワークの効率的な再構成
- Authors: Yogesh Pipada Sunil Kumar, S. Ali Pourmousavi, Jon A. R. Liisberg, Julian Lesmos-Vinasco,
- Abstract要約: 分散電力システムの脱炭はエネルギー資源への依存を増している。
複雑で非線形な相互作用は 最適に捉えるのが難しい
本稿では,DNNLP(Convexified ReLUs)のクラスに対する再編成を提案する。
提案された改革は、最先端の代替案に対してベンチマークされる。
- 参考スコア(独自算出の注目度): 0.9612977347324178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ongoing decarbonisation of power systems is driving an increasing reliance on distributed energy resources, which introduces complex and nonlinear interactions that are difficult to capture in conventional optimisation models. As a result, machine learning based surrogate modelling has emerged as a promising approach, but integrating machine learning models such as ReLU deep neural networks (DNNs) directly into optimisation often results in nonconvex and computationally intractable formulations. This paper proposes a linear programming (LP) reformulation for a class of convexified ReLU DNNs with non-negative weight matrices beyond the first layer, enabling a tight and tractable embedding of learned surrogate models in optimisation. We evaluate the method using a case study on learning the prosumer's responsiveness within an aggregator bidding problem in the Danish tertiary capacity market. The proposed reformulation is benchmarked against state-of-the-art alternatives, including piecewise linearisation (PWL), MIP-based embedding, and other LP relaxations. Across multiple neural network architectures and market scenarios, the convexified ReLU DNN achieves solution quality comparable to PWL and MIP-based reformulations while significantly improving computational performance and preserving model fidelity, unlike penalty-based reformulations. The results demonstrate that convexified ReLU DNNs offer a scalable and reliable methodology for integrating learned surrogate models in optimisation, with applicability to a wide range of emerging power system applications.
- Abstract(参考訳): 電力系統の継続的な脱炭素化は、従来の最適化モデルでは捉えがたい複雑な非線形相互作用を導入し、分散エネルギー資源への依存を増している。
その結果、機械学習ベースのサロゲートモデリングは有望なアプローチとして現れてきたが、ReLUディープニューラルネットワーク(DNN)などの機械学習モデルを最適化に直接統合すると、しばしば非凸および計算的に難解な定式化がもたらされる。
本稿では,第1層を超えて非負の重み行列を持つ凸化ReLU DNNの線形プログラミング (LP) 再構成を提案する。
本手法はデンマークの第三次容量市場におけるアグリゲータ入札問題において,提案者の応答性を学習するためのケーススタディを用いて評価する。
提案手法は, 片方向線形化(PWL), MIPベースの埋め込み, その他のLP緩和など, 最先端の代替品に対してベンチマークされる。
複数のニューラルネットワークアーキテクチャと市場シナリオにまたがって、凸化されたReLU DNNは、PWLやMIPベースのリフォームに匹敵するソリューション品質を実現し、ペナルティベースのリフォームとは異なり、計算性能を大幅に改善し、モデルの忠実さを保っている。
その結果,コンベクシファイド ReLU DNN は,学習したサロゲートモデルを最適化に統合するための,スケーラブルで信頼性の高い方法論を提供することを示した。
関連論文リスト
- Solving Heterogeneous Agent Models with Physics-informed Neural Networks [0.0]
本稿では物理インフォームドニューラルネットワーク(PINN)に基づくアプローチであるABH-PINNソルバを紹介する。
PINNはハミルトン・ヤコビ・ベルマン方程式とコルモゴロフフォワード方程式を直接ニューラルネットワークトレーニングの目的に組み込む。
予備的な結果は、PINNに基づくアプローチが、確立された有限差分解法に適合する経済的に有効な結果を得ることができることを示している。
論文 参考訳(メタデータ) (2025-11-25T13:11:03Z) - Optimizers Qualitatively Alter Solutions And We Should Leverage This [62.662640460717476]
ディープニューラルネットワーク(DNN)は、SGDのようなローカル情報のみを使用する場合、損失のグローバルな最小限に収束することを保証できない。
コミュニティは、既存のメソッドのバイアスを理解すること、また、ソリューションの特定の特性を誘発する明示的な意図で、新しいDNNを構築することを目的としている。
論文 参考訳(メタデータ) (2025-07-16T13:33:31Z) - Preference Optimization for Combinatorial Optimization Problems [54.87466279363487]
強化学習(Reinforcement Learning, RL)は、ニューラルネットワーク最適化のための強力なツールとして登場した。
大幅な進歩にもかかわらず、既存のRLアプローチは報酬信号の減少や大規模な行動空間における非効率な探索といった課題に直面している。
統計的比較モデルを用いて定量的報酬信号を定性的選好信号に変換する新しい手法であるPreference Optimizationを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:47:00Z) - A domain decomposition-based autoregressive deep learning model for unsteady and nonlinear partial differential equations [2.7755345520127936]
非定常・非線形偏微分方程式(PDE)を正確にモデル化するためのドメイン分割型ディープラーニング(DL)フレームワークCoMLSimを提案する。
このフレームワークは、(a)畳み込みニューラルネットワーク(CNN)ベースのオートエンコーダアーキテクチャと(b)完全に接続された層で構成される自己回帰モデルという、2つの重要なコンポーネントで構成されている。
論文 参考訳(メタデータ) (2024-08-26T17:50:47Z) - Deep autoregressive density nets vs neural ensembles for model-based
offline reinforcement learning [2.9158689853305693]
本稿では、利用可能なデータからシステムダイナミクスを推定し、仮想モデルロールアウトにおけるポリシー最適化を行うモデルベース強化学習アルゴリズムについて考察する。
このアプローチは、実際のシステムで破滅的な失敗を引き起こす可能性のあるモデルエラーを悪用することに対して脆弱である。
D4RLベンチマークの1つのよく校正された自己回帰モデルにより、より良い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:18:15Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Neural Improvement Heuristics for Graph Combinatorial Optimization
Problems [49.85111302670361]
本稿では,ノード,エッジ,あるいはその両方に情報をエンコードするグラフベースの問題を扱う新しいニューラル改善(NI)モデルを提案する。
提案モデルは,各地区の操作の選択を誘導する丘登頂に基づくアルゴリズムの基本的な構成要素として機能する。
論文 参考訳(メタデータ) (2022-06-01T10:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。