論文の概要: Neural Stochastic Dual Dynamic Programming
- arxiv url: http://arxiv.org/abs/2112.00874v1
- Date: Wed, 1 Dec 2021 22:55:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 14:33:50.174425
- Title: Neural Stochastic Dual Dynamic Programming
- Title(参考訳): ニューラル確率デュアル動的プログラミング
- Authors: Hanjun Dai, Yuan Xue, Zia Syed, Dale Schuurmans, Bo Dai
- Abstract要約: 我々は、問題インスタンスを断片的線形値関数にマッピングすることを学ぶトレーニング可能なニューラルモデルを導入する。
$nu$-SDDPは、ソリューションの品質を犠牲にすることなく、問題解決コストを大幅に削減できる。
- 参考スコア(独自算出の注目度): 99.80617899593526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stochastic dual dynamic programming (SDDP) is a state-of-the-art method for
solving multi-stage stochastic optimization, widely used for modeling
real-world process optimization tasks. Unfortunately, SDDP has a worst-case
complexity that scales exponentially in the number of decision variables, which
severely limits applicability to only low dimensional problems. To overcome
this limitation, we extend SDDP by introducing a trainable neural model that
learns to map problem instances to a piece-wise linear value function within
intrinsic low-dimension space, which is architected specifically to interact
with a base SDDP solver, so that can accelerate optimization performance on new
instances. The proposed Neural Stochastic Dual Dynamic Programming ($\nu$-SDDP)
continually self-improves by solving successive problems. An empirical
investigation demonstrates that $\nu$-SDDP can significantly reduce problem
solving cost without sacrificing solution quality over competitors such as SDDP
and reinforcement learning algorithms, across a range of synthetic and
real-world process optimization problems.
- Abstract(参考訳): 確率的双対動的プログラミング(sddp)は、実世界のプロセス最適化タスクのモデリングに広く用いられる多段階確率的最適化を解くための最先端の手法である。
残念なことに、SDDPは決定変数の数で指数関数的にスケールする最悪の複雑性を持ち、低次元問題のみの適用性を著しく制限する。
この制限を克服するために,本研究では,問題インスタンスを本質的な低次元空間内のピースワイド線形値関数にマッピングすることを学ぶトレーニング可能なニューラルモデルを導入して,SDDPを拡張した。
提案したNeural Stochastic Dual Dynamic Programming($\nu$-SDDP)は、連続した問題を解くことで継続的に自己改善する。
実験的な調査によると、$\nu$-SDDPは、SDDPや強化学習アルゴリズムといった競合製品よりも、様々な合成および実世界のプロセス最適化問題を犠牲にすることなく、問題解決コストを大幅に削減できる。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Two-Stage ML-Guided Decision Rules for Sequential Decision Making under Uncertainty [55.06411438416805]
SDMU (Sequential Decision Making Under Uncertainty) は、エネルギー、金融、サプライチェーンといった多くの領域において、ユビキタスである。
いくつかのSDMUは、自然にマルチステージ問題(MSP)としてモデル化されているが、結果として得られる最適化は、計算の観点からは明らかに困難である。
本稿では,2段階の一般決定規則(TS-GDR)を導入し,線形関数を超えて政策空間を一般化する手法を提案する。
TS-GDRの有効性は、TS-LDR(Two-Stage Deep Decision Rules)と呼ばれるディープリカレントニューラルネットワークを用いたインスタンス化によって実証される。
論文 参考訳(メタデータ) (2024-05-23T18:19:47Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - DIMES: A Differentiable Meta Solver for Combinatorial Optimization
Problems [41.57773395100222]
深部強化学習(DRL)モデルはNP-hard Combinatorial Optimization問題を解決する上で有望な結果を示している。
本稿では,DIMESという新しいアプローチを提案することによって,大規模最適化におけるスケーラビリティの課題に対処する。
コストのかかる自己回帰的復号法や離散解の反復的洗練に苦しむ従来のDRL法とは異なり、DIMESは候補解の基底分布をパラメータ化するためのコンパクトな連続空間を導入する。
DIMESは、トラベリングセールスマン問題や最大独立セット問題のための大規模なベンチマークデータセットにおいて、最近のDRLベースの手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-08T23:24:37Z) - Efficient differentiable quadratic programming layers: an ADMM approach [0.0]
乗算器の交互方向法(ADMM)に基づく代替ネットワーク層アーキテクチャを提案する。
後方微分は、修正された固定点反復の残差写像の暗黙の微分によって行われる。
シミュレーションの結果は、中規模の問題に対してOptNet二次プログラミング層よりも約1桁高速であるADMM層の計算上の利点を示している。
論文 参考訳(メタデータ) (2021-12-14T15:25:07Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。