論文の概要: Dual Interior-Point Optimization Learning
- arxiv url: http://arxiv.org/abs/2402.02596v1
- Date: Sun, 4 Feb 2024 20:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 18:51:28.221772
- Title: Dual Interior-Point Optimization Learning
- Title(参考訳): デュアルインテリアポイント最適化学習
- Authors: Michael Klamkin, Mathieu Tanneau, Pascal Van Hentenryck
- Abstract要約: DIPLとDSLは、有界変数を持つパラメトリック線形プログラムの二重実現可能な解を学ぶ。
それらは大規模最適潮流問題に対する高忠実度二重実現可能な解を生成する。
- 参考スコア(独自算出の注目度): 18.006916033168494
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces Dual Interior Point Learning (DIPL) and Dual
Supergradient Learning (DSL) to learn dual feasible solutions to parametric
linear programs with bounded variables, which are pervasive across many
industries. DIPL mimics a novel dual interior point algorithm while DSL mimics
classical dual supergradient ascent. DIPL and DSL ensure dual feasibility by
predicting dual variables associated with the constraints then exploiting the
flexibility of the duals of the bound constraints. DIPL and DSL complement
existing primal learning methods by providing a certificate of quality. They
are shown to produce high-fidelity dual-feasible solutions to large-scale
optimal power flow problems providing valid dual bounds under 0.5% optimality
gap.
- Abstract(参考訳): 本稿では,有界変数を持つパラメトリック線形プログラムの2つの実現可能な解を学習するために,DIPL(Dual Internal Point Learning)とDSL(Dual Supergradient Learning)を導入する。
DIPLは、新しい双対インテリアポイントアルゴリズムを模倣し、DSLは古典的な双対過次上昇を模倣する。
DIPLとDSLは制約に関連する双対変数を予測し、境界制約の双対の柔軟性を利用することにより、二重実現性を保証する。
diplとdslは、品質証明書を提供することで、既存の基本学習方法を補完する。
それらは、0.5%の最適性ギャップの下で有効な双対境界を与える大規模最適潮流問題に対する高忠実な二重実現可能な解を生成する。
関連論文リスト
- Near-Optimal Solutions of Constrained Learning Problems [85.48853063302764]
機械学習システムでは、振る舞いを縮小する必要性がますます顕在化している。
これは、双対ロバスト性変数を満たすモデルの開発に向けた最近の進歩によって証明されている。
この結果から, 豊富なパラメトリゼーションは非次元的, 有限な学習問題を効果的に緩和することが示された。
論文 参考訳(メタデータ) (2024-03-18T14:55:45Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Double Duality: Variational Primal-Dual Policy Optimization for
Constrained Reinforcement Learning [132.7040981721302]
本研究では,訪問尺度の凸関数を最小化することを目的として,制約付き凸決定プロセス(MDP)について検討する。
制約付き凸MDPの設計アルゴリズムは、大きな状態空間を扱うなど、いくつかの課題に直面している。
論文 参考訳(メタデータ) (2024-02-16T16:35:18Z) - Dual Lagrangian Learning for Conic Optimization [21.272785888296088]
本稿では、コニック双対性理論とMLモデルの表現力を組み合わせた原則学習手法であるDual Lagrangian Learning(DLL)を提案する。
円錐双対性を利用して双対実現可能な解を提供し、したがってパラメトリック線型および非線形円錐最適化問題に対して有効なラグランジアン双対境界を与える。
論文 参考訳(メタデータ) (2024-02-05T15:14:08Z) - Dual Conic Proxies for AC Optimal Power Flow [16.02181642119643]
既存の学習ベースのアプローチでは、AC-OPFに有効な二重境界は提供できない。
本稿では,AC-OPFの凸緩和のための最適化プロキシをトレーニングすることで,このギャップを解消する。
本稿は、この新しいアーキテクチャと自己教師付き学習スキームを組み合わせることで、データ生成の費用のかかるトレーニングの必要性を軽減する。
論文 参考訳(メタデータ) (2023-10-04T17:06:30Z) - Meta-Learning Adversarial Bandit Algorithms [55.72892209124227]
我々は,バンディットフィードバックを用いたオンラインメタラーニングについて研究する。
我々は自己協和障壁正規化器を用いてオンラインミラー降下一般化(OMD)をチューニングすることを学ぶ。
論文 参考訳(メタデータ) (2023-07-05T13:52:10Z) - MULTIGAIN 2.0: MDP controller synthesis for multiple mean-payoff, LTL and steady-state constraints [41.94295877935867]
コントローラ合成ツールMultiGAINのメジャー拡張であるMultiGAIN 2.0を提案する。
確率論的モデルチェッカー PRISM 上に構築されている。
論文 参考訳(メタデータ) (2023-05-26T08:59:51Z) - Learning-Assisted Algorithm Unrolling for Online Optimization with
Budget Constraints [27.84415856657607]
我々はLAAU(Learning-Assisted Algorithm Unrolling)と呼ばれる新しい機械学習支援アンローリング手法を提案する。
バックプロパゲーションによる効率的なトレーニングには、時間とともに決定パイプラインの勾配を導出します。
また、トレーニングデータがオフラインで利用可能で、オンラインで収集できる場合の2つのケースの平均的なコスト境界も提供します。
論文 参考訳(メタデータ) (2022-12-03T20:56:29Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Scaling the Convex Barrier with Sparse Dual Algorithms [141.4085318878354]
本稿では,ニューラルネットワークバウンダリングのための2つの新しい2重アルゴリズムを提案する。
どちらの方法も新しい緩和の強さを回復する: 厳密さと線形分離オラクル。
実行時間のほんの一部で、既製のソルバよりも優れた境界を得ることができます。
論文 参考訳(メタデータ) (2021-01-14T19:45:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。