論文の概要: Dual Interior-Point Optimization Learning
- arxiv url: http://arxiv.org/abs/2402.02596v1
- Date: Sun, 4 Feb 2024 20:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 18:51:28.221772
- Title: Dual Interior-Point Optimization Learning
- Title(参考訳): デュアルインテリアポイント最適化学習
- Authors: Michael Klamkin, Mathieu Tanneau, Pascal Van Hentenryck
- Abstract要約: DIPLとDSLは、有界変数を持つパラメトリック線形プログラムの二重実現可能な解を学ぶ。
それらは大規模最適潮流問題に対する高忠実度二重実現可能な解を生成する。
- 参考スコア(独自算出の注目度): 18.006916033168494
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces Dual Interior Point Learning (DIPL) and Dual
Supergradient Learning (DSL) to learn dual feasible solutions to parametric
linear programs with bounded variables, which are pervasive across many
industries. DIPL mimics a novel dual interior point algorithm while DSL mimics
classical dual supergradient ascent. DIPL and DSL ensure dual feasibility by
predicting dual variables associated with the constraints then exploiting the
flexibility of the duals of the bound constraints. DIPL and DSL complement
existing primal learning methods by providing a certificate of quality. They
are shown to produce high-fidelity dual-feasible solutions to large-scale
optimal power flow problems providing valid dual bounds under 0.5% optimality
gap.
- Abstract(参考訳): 本稿では,有界変数を持つパラメトリック線形プログラムの2つの実現可能な解を学習するために,DIPL(Dual Internal Point Learning)とDSL(Dual Supergradient Learning)を導入する。
DIPLは、新しい双対インテリアポイントアルゴリズムを模倣し、DSLは古典的な双対過次上昇を模倣する。
DIPLとDSLは制約に関連する双対変数を予測し、境界制約の双対の柔軟性を利用することにより、二重実現性を保証する。
diplとdslは、品質証明書を提供することで、既存の基本学習方法を補完する。
それらは、0.5%の最適性ギャップの下で有効な双対境界を与える大規模最適潮流問題に対する高忠実な二重実現可能な解を生成する。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Dynamic Incremental Optimization for Best Subset Selection [15.8362578568708]
最良のサブセット選択は、多くの学習問題に対する金の標準と見なされている。
主問題構造と双対問題構造に基づいて,効率的な部分集合双対アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-04T02:26:40Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Learning to Optimize Under Constraints with Unsupervised Deep Neural
Networks [0.0]
機械学習(ML)手法を提案し,汎用的制約付き連続最適化問題の解法を学習する。
本稿では,制約付き最適化問題をリアルタイムに解くための教師なしディープラーニング(DL)ソリューションを提案する。
論文 参考訳(メタデータ) (2021-01-04T02:58:37Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。