論文の概要: ICNN-enhanced 2SP: Leveraging input convex neural networks for solving two-stage stochastic programming
- arxiv url: http://arxiv.org/abs/2505.05261v1
- Date: Thu, 08 May 2025 14:06:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.908357
- Title: ICNN-enhanced 2SP: Leveraging input convex neural networks for solving two-stage stochastic programming
- Title(参考訳): ICNN強化2SP:2段階確率計画問題の解法における入力凸ニューラルネットワークの活用
- Authors: Yu Liu, Fabricio Oliveira,
- Abstract要約: 2段階プログラミング(2SP)は不確実性の下で意思決定をモデル化するための基本的なフレームワークを提供する。
Neural Two-Stage Programming (Neur2SP)のような既存の学習ベースの手法では、リコース関数サロゲートとしてニューラルネットワーク(NN)を採用している。
本稿では,凸2SP問題における線形プログラミング表現性を利用するICNN拡張2SPを提案する。
- 参考スコア(独自算出の注目度): 3.528295407065282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Two-stage stochastic programming (2SP) offers a basic framework for modelling decision-making under uncertainty, yet scalability remains a challenge due to the computational complexity of recourse function evaluation. Existing learning-based methods like Neural Two-Stage Stochastic Programming (Neur2SP) employ neural networks (NNs) as recourse function surrogates but rely on computationally intensive mixed-integer programming (MIP) formulations. We propose ICNN-enhanced 2SP, a method that leverages Input Convex Neural Networks (ICNNs) to exploit linear programming (LP) representability in convex 2SP problems. By architecturally enforcing convexity and enabling exact inference through LP, our approach eliminates the need for integer variables inherent to the conventional MIP-based formulation while retaining an exact embedding of the ICNN surrogate within the 2SP framework. This results in a more computationally efficient alternative that maintains solution quality. Comprehensive experiments reveal that ICNNs incur only marginally longer training times while achieving validation accuracy on par with their MIP-based counterparts. Across benchmark problems, ICNN-enhanced 2SP often exhibits considerably faster solution times than the MIP-based formulations while preserving solution quality, with these advantages becoming significantly more pronounced as problem scale increases. For the most challenging instances, the method achieves speedups of up to 100$\times$ and solution quality superior to MIP-based formulations.
- Abstract(参考訳): 2段階確率プログラミング(2SP)は不確実性の下で意思決定をモデル化するための基本的なフレームワークを提供するが、リコース関数評価の計算複雑性のためスケーラビリティは依然として課題である。
Neural Two-Stage Stochastic Programming (Neur2SP)のような既存の学習ベースの手法では、リコース関数のサロゲートとしてニューラルネットワーク(NN)を採用しているが、計算集約型混合整数プログラミング(MIP)の定式化に依存している。
本稿では,入力凸ニューラルネットワーク(ICNN)を利用して,凸2SP問題における線形プログラミング(LP)表現性を利用するICNN拡張2SPを提案する。
アーキテクチャ的に凸性を強制し、LPによる正確な推論を可能にすることにより、2SPフレームワーク内にICNNサロゲートの正確な埋め込みを保持しながら、従来のMIPベースの定式化に固有の整数変数の必要性を解消する。
これにより、より計算効率のよい代替案が、ソリューションの品質を維持することになる。
総合的な実験により、ICNNはトレーニング時間を極端に長く抑えつつ、MIPベースのトレーニングと同等に検証精度を達成していることがわかった。
ベンチマーク問題全体では、ICNNで強化された2SPは、ソリューションの品質を維持しながら、MIPベースの定式化よりもはるかに高速な解時間を示すことが多く、これらの利点は問題スケールが増加するにつれて顕著に顕著になる。
最も難しい例は、最大100$\times$の高速化と、MIPベースの定式化よりも優れたソリューション品質を実現することである。
関連論文リスト
- Verifying Properties of Binary Neural Networks Using Sparse Polynomial Optimization [8.323690755070123]
本稿では,バイナリニューラルネットワーク(BNN)の特性検証手法について検討する。
フル精度のBNNと同様、入力の摂動にも敏感だ。
スパース多項式最適化から導かれる半有限プログラミング緩和を用いた代替手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T11:03:48Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Neur2SP: Neural Two-Stage Stochastic Programming [3.5417030119735045]
我々はニューラルネットワークを介して期待値関数を近似する新しい方法Neur2SPを開発した。
Neur2SPはすべての問題に対して1.66秒未満で、シナリオの数が増えても高品質なソリューションを実現する。
論文 参考訳(メタデータ) (2022-05-20T22:09:22Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Neural Stochastic Dual Dynamic Programming [99.80617899593526]
我々は、問題インスタンスを断片的線形値関数にマッピングすることを学ぶトレーニング可能なニューラルモデルを導入する。
$nu$-SDDPは、ソリューションの品質を犠牲にすることなく、問題解決コストを大幅に削減できる。
論文 参考訳(メタデータ) (2021-12-01T22:55:23Z) - A generic physics-informed neural network-based framework for
reliability assessment of multi-state systems [1.6440434996206623]
マルチステートシステム(MSS)の信頼性を評価するための汎用的なPINNベースのフレームワークを開発する。
我々は、マルチタスク学習の観点から、PINNのバックプロパゲート勾配の大きさの高不均衡の問題に取り組む。
提案するPINNベースのフレームワークは,MSS信頼性評価における汎用的かつ顕著な性能を示す。
論文 参考訳(メタデータ) (2021-12-01T01:43:57Z) - Learning from Images: Proactive Caching with Parallel Convolutional
Neural Networks [94.85780721466816]
本稿では,プロアクティブキャッシングのための新しいフレームワークを提案する。
モデルベースの最適化とデータ駆動技術を組み合わせて、最適化問題をグレースケールのイメージに変換する。
数値計算の結果,提案手法は71.6%の計算時間を0.8%のコストで削減できることがわかった。
論文 参考訳(メタデータ) (2021-08-15T21:32:47Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。