論文の概要: Optimality-Informed Neural Networks for Solving Parametric Optimization Problems
- arxiv url: http://arxiv.org/abs/2512.20270v1
- Date: Tue, 23 Dec 2025 11:24:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.84424
- Title: Optimality-Informed Neural Networks for Solving Parametric Optimization Problems
- Title(参考訳): パラメトリック最適化問題の解法のための最適インフォームニューラルネットワーク
- Authors: Matthias K. Hoffmann, Amine Othmane, Kathrin Flaßkamp,
- Abstract要約: ニューラルネットワークを用いてパラメータから原始最適解、および対応する双対への写像を学習することを提案する。
我々のアプローチであるOptimality-informed Neural Networks (OptINNs) は、(i) 1次最適条件の違反を罰するKKT残留損失を組み合わせたものである。
低次元から高次元までの様々な非線形最適化問題に対してOPTINNを評価する。
- 参考スコア(独自算出の注目度): 0.688204255655161
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Many engineering tasks require solving families of nonlinear constrained optimization problems, parametrized in setting-specific variables. This is computationally demanding, particularly, if solutions have to be computed across strongly varying parameter values, e.g., in real-time control or for model-based design. Thus, we propose to learn the mapping from parameters to the primal optimal solutions and to their corresponding duals using neural networks, giving a dense estimation in contrast to gridded approaches. Our approach, Optimality-informed Neural Networks (OptINNs), combines (i) a KKT-residual loss that penalizes violations of the first-order optimality conditions under standard constraint qualifications assumptions, and (ii) problem-specific output activations that enforce simple inequality constraints (e.g., box-type/positivity) by construction. This design reduces data requirements, allows the prediction of dual variables, and improves feasibility and closeness to optimality compared to penalty-only training. Taking quadratic penalties as a baseline, since this approach has been previously proposed for the considered problem class in literature, our method simplifies hyperparameter tuning and attains tighter adherence to optimality conditions. We evaluate OptINNs on different nonlinear optimization problems ranging from low to high dimensions. On small problems, OptINNs match a quadratic-penalty baseline in primal accuracy while additionally predicting dual variables with low error. On larger problems, OptINNs achieve lower constraint violations and lower primal error compared to neural networks based on the quadratic-penalty method. These results suggest that embedding feasibility and optimality into the network architecture and loss can make learning-based surrogates more accurate, feasible, and data-efficient for parametric optimization.
- Abstract(参考訳): 多くの工学的なタスクは、設定固有の変数でパラメータ化される非線形に制約された最適化問題の族を解く必要がある。
これは特に、リアルタイム制御やモデルベース設計において、強く変化するパラメータ値にまたがって解を計算する必要がある場合、計算的に要求される。
そこで本研究では,ニューラルネットワークを用いてパラメータから最適解と対応する双対への写像を学習し,格子状アプローチと対照的に密に推定する手法を提案する。
OptINN(Optimality-informed Neural Networks)とOptINN(Optimality-Informed Neural Networks)の併用
一 標準制約条件の前提条件に基づく一階最適条件違反を罰するKKT残留損失
(2)構成による単純な不等式制約(箱型/正の値)を強制する問題固有の出力アクティベーション。
この設計は、データ要求を減らし、双対変数の予測を可能にし、ペナルティのみのトレーニングと比較して、実現可能性と最適性の近接性を改善する。
本手法は,2次ペナルティをベースラインとして,文献における問題クラスとしてこれまで提案されてきたため,過度パラメータのチューニングを簡略化し,最適条件へのより厳密な付着を実現する。
低次元から高次元までの様々な非線形最適化問題に対してOPTINNを評価する。
小さい問題では、OptINNは2次ペナルティベースラインと原始的精度で一致し、同時に2変数を低誤差で予測する。
より大きな問題では、OptINNは2次ペナルティ法に基づくニューラルネットワークと比較して、制約違反が低く、プリミティブエラーが低い。
これらの結果は、ネットワークアーキテクチャと損失に実現可能性と最適性を組み込むことで、学習ベースのサロゲートをより正確で、実現可能で、パラメトリック最適化のためのデータ効率を高めることができることを示唆している。
関連論文リスト
- Online Inference of Constrained Optimization: Primal-Dual Optimality and Sequential Quadratic Programming [55.848340925419286]
等式制約と不等式制約を持つ2次最適化問題の解に対するオンライン統計的推測について検討した。
これらの問題を解決するための逐次プログラミング(SSQP)手法を開発し、目的の近似と制約の線形近似を逐次実行することでステップ方向を計算する。
本手法は,Hjek と Le Cam の意味での最適原始双対制限行列を用いて局所正規性を示す。
論文 参考訳(メタデータ) (2025-11-27T06:16:17Z) - Quantum Annealing for Minimum Bisection Problem: A Machine Learning-based Approach for Penalty Parameter Tuning [0.39325957466009204]
ペナルティパラメータの適応的チューニングのための機械学習に基づく新しいアプローチを提案する。
我々は、最大4,000ノードのランダムに生成されたErdHos-R'enyiグラフの大規模なデータセット上で、我々のアプローチをテストする。
論文 参考訳(メタデータ) (2025-09-23T13:49:18Z) - Solver-Free Decision-Focused Learning for Linear Optimization Problems [6.305123652677644]
多くの実世界のシナリオでは、最適化問題のパラメータは事前に知られておらず、文脈的特徴から予測されなければならない。
機械学習モデルは、最適化によって決定される問題パラメータを予測する。
本稿では, 線形最適化の幾何学的構造を利用して, 解の質を最小限に抑え, 効率的な学習を可能にする手法を提案する。
論文 参考訳(メタデータ) (2025-05-28T10:55:16Z) - Self-Supervised Learning of Iterative Solvers for Constrained Optimization [0.0]
制約付き最適化のための学習型反復解法を提案する。
解法を特定のパラメトリック最適化問題にカスタマイズすることで、非常に高速で正確な解を得ることができる。
最適性のKarush-Kuhn-Tucker条件に基づく新しい損失関数を導入し、両ニューラルネットワークの完全な自己教師付きトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-09-12T14:17:23Z) - KKT-Informed Neural Network [0.0]
凸最適化問題を解決するニューラルネットワークに基づくアプローチを提案する。
ネットワークは入力パラメータのバッチが与えられた最適点を推定する。
カルーシュ=クーン=タッカー条件の違反を罰し、その予測がこれらの最適基準に従うことを保証している。
論文 参考訳(メタデータ) (2024-09-11T15:49:36Z) - WANCO: Weak Adversarial Networks for Constrained Optimization problems [5.257895611010853]
まず、拡張ラグランジアン法を用いてミニマックス問題をミニマックス問題に変換する。
次に、それぞれ原始変数と双対変数を表すために、2つの(または複数の)ディープニューラルネットワークを使用します。
ニューラルネットワークのパラメータは、敵のプロセスによって訓練される。
論文 参考訳(メタデータ) (2024-07-04T05:37:48Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。