論文の概要: Sobolev Training of End-to-End Optimization Proxies
- arxiv url: http://arxiv.org/abs/2505.11342v1
- Date: Fri, 16 May 2025 15:10:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.378731
- Title: Sobolev Training of End-to-End Optimization Proxies
- Title(参考訳): エンドツーエンド最適化プロキシのソボレフトレーニング
- Authors: Andrew W. Rosemberg, Joaquim Dias Garcia, Russell Bent, Pascal Van Hentenryck,
- Abstract要約: 本研究は,ソボレフ訓練パラダイムを用いて,問題解決者の感性から終末プロキシへの統合について検討する。
ソボレフのトレーニングでは、誤差を最大56%減らし、最悪のケースは最大400%減った。
ラベル付きソリューションを使わずにトレーニングされた平均分散ポートフォリオタスクに対して、自己監督型ソボレフトレーニングは、中リスク領域における平均最適性ギャップを半減する。
- 参考スコア(独自算出の注目度): 14.076978703913605
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Optimization proxies - machine learning models trained to approximate the solution mapping of parametric optimization problems in a single forward pass - offer dramatic reductions in inference time compared to traditional iterative solvers. This work investigates the integration of solver sensitivities into such end to end proxies via a Sobolev training paradigm and does so in two distinct settings: (i) fully supervised proxies, where exact solver outputs and sensitivities are available, and (ii) self supervised proxies that rely only on the objective and constraint structure of the underlying optimization problem. By augmenting the standard training loss with directional derivative information extracted from the solver, the proxy aligns both its predicted solutions and local derivatives with those of the optimizer. Under Lipschitz continuity assumptions on the true solution mapping, matching first order sensitivities is shown to yield uniform approximation error proportional to the training set covering radius. Empirically, different impacts are observed in each studied setting. On three large Alternating Current Optimal Power Flow benchmarks, supervised Sobolev training cuts mean squared error by up to 56 percent and the median worst case constraint violation by up to 400 percent while keeping the optimality gap below 0.22 percent. For a mean variance portfolio task trained without labeled solutions, self supervised Sobolev training halves the average optimality gap in the medium risk region (standard deviation above 10 percent of budget) and matches the baseline elsewhere. Together, these results highlight Sobolev training whether supervised or self supervised as a path to fast reliable surrogates for safety critical large scale optimization workloads.
- Abstract(参考訳): 最適化プロキシ - 単一の前方通過におけるパラメトリック最適化問題のソリューションマッピングを近似するために訓練された機械学習モデル - は、従来の反復解法と比較して、推論時間を劇的に短縮する。
本研究は,ソボレフ訓練パラダイムを通じて,そのようなエンドツーエンドプロキシへの解決者の感性の統合について検討し,2つの異なる設定で実施する。
一 完全に監督されたプロキシで、正確な解法出力及び感度が利用可能で、
(2)基本最適化問題の目的と制約構造にのみ依存する自己教師付きプロキシ。
ソルバから抽出した方向微分情報と標準トレーニング損失を増大させることにより、プロキシは予測された解と局所微分の両方をオプティマイザのものと整合させる。
真の解写像上のリプシッツ連続性仮定の下では、一階感度のマッチングは半径をカバーするトレーニングセットに比例する均一な近似誤差をもたらすことが示される。
経験的に、各研究環境で異なる影響が観察される。
3つの大きな交互電流最適潮流ベンチマークでは、ソボレフのトレーニングカットにより、最大56%の誤差が正方形となり、最悪のケースは最大400%の制約違反となり、最適性ギャップは0.22%以下に抑えられた。
ラベル付きソリューションを使わずにトレーニングされた平均分散ポートフォリオタスクに対して、自己監督型ソボレフトレーニングは、中リスク領域の平均最適性ギャップ(予算の10%を超える標準偏差)をハーフし、ベースラインと他の場所で一致させる。
これらの結果は、安全クリティカルな大規模最適化ワークロードのために、高速で信頼性の高いサロゲートへのパスとして教師付きか自己教師型かをSobolevトレーニングで強調する。
関連論文リスト
- Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Distributed Fractional Bayesian Learning for Adaptive Optimization [7.16937736207894]
本稿では,各エージェントが共通パラメータを持つローカルコスト関数にのみアクセス可能な分散適応最適化問題について考察する。
分散最適化問題におけるパラメータの不確実性に対処し、同時に最適解を見つけるための貴重な洞察を提供することを目的としている。
論文 参考訳(メタデータ) (2024-04-17T13:09:33Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - DiffuSolve: Diffusion-based Solver for Non-convex Trajectory Optimization [9.28162057044835]
最適軌道局所は非線形および高次元力学系において計算コストが高い。
本稿では,非次元オプティマ問題に対するDiffuに基づく一般モデルを提案する。
また,新たな制約付き拡散モデルであるDiff+を提案する。
論文 参考訳(メタデータ) (2024-02-22T03:52:17Z) - Self-Supervised Primal-Dual Learning for Constrained Optimization [19.965556179096385]
本稿では,制約付き最適化問題の最適解を直接近似する機械学習モデルの訓練方法を検討する。
プリマル・デュアル・ラーニング(PDL, Primal-Dual Learning)は,事前解決した一連のインスタンスや,学習と推論のための最適化解法を必要としない自己指導型トレーニング手法である。
論文 参考訳(メタデータ) (2022-08-18T20:07:10Z) - Fast Rates for Contextual Linear Optimization [52.39202699484225]
提案手法は, 下流決定性能を直接最適化する手法よりもはるかに高速な, 後悔の収束率を実現する。
予測モデルは、既存のツールを使ったトレーニングが簡単かつ高速で、解釈が簡単で、私たちが示しているように、非常にうまく機能する決定につながる。
論文 参考訳(メタデータ) (2020-11-05T18:43:59Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。