論文の概要: A Neural Network Framework for Discovering Closed-form Solutions to Quadratic Programs with Linear Constraints
- arxiv url: http://arxiv.org/abs/2510.23737v1
- Date: Mon, 27 Oct 2025 18:11:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.410936
- Title: A Neural Network Framework for Discovering Closed-form Solutions to Quadratic Programs with Linear Constraints
- Title(参考訳): 線形制約付き擬似プログラムの閉形式解探索のためのニューラルネットワークフレームワーク
- Authors: Fuat Can Beylunioglu, P. Robert Duimering, Mehrdad Pirnia,
- Abstract要約: ディープニューラルネットワーク(DNN)は、多くのアプリケーションで複雑な最適化問題をモデル化するために使われてきた。
大規模なデータセットでトレーニングされているにも関わらず、ソリューションの最適性と実現性を保証するのは難しい。
本稿では,線形制約のある二次プログラムに対して,厳密な閉形式解を求めるNNモデリング手法と学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 2.064612766965483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have been used to model complex optimization problems in many applications, yet have difficulty guaranteeing solution optimality and feasibility, despite training on large datasets. Training a NN as a surrogate optimization solver amounts to estimating a global solution function that maps varying problem input parameters to the corresponding optimal solutions. Work in multiparametric programming (mp) has shown that solutions to quadratic programs (QP) are piece-wise linear functions of the parameters, and researchers have suggested leveraging this property to model mp-QP using NN with ReLU activation functions, which also exhibit piecewise linear behaviour. This paper proposes a NN modeling approach and learning algorithm that discovers the exact closed-form solution to QP with linear constraints, by analytically deriving NN model parameters directly from the problem coefficients without training. Whereas generic DNN cannot guarantee accuracy outside the training distribution, the closed-form NN model produces exact solutions for every discovered critical region of the solution function. To evaluate the closed-form NN model, it was applied to DC optimal power flow problems in electricity management. In terms of Karush-Kuhn-Tucker (KKT) optimality and feasibility of solutions, it outperformed a classically trained DNN and was competitive with, or outperformed, a commercial analytic solver (Gurobi) at far less computational cost. For a long-range energy planning problem, it was able to produce optimal and feasible solutions for millions of input parameters within seconds.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、多くのアプリケーションで複雑な最適化問題をモデル化するために使われてきたが、大規模なデータセットのトレーニングにもかかわらず、ソリューションの最適性と実現性を保証するのは難しい。
NNを代理最適化解法として訓練すると、様々な問題入力パラメータを対応する最適解にマッピングする大域的解関数が推定される。
マルチパラメトリックプログラミング(mp)の研究は、2次プログラム(QP)の解がパラメータの分数次線形関数であることを示し、研究者らはこの特性を利用してNNとReLUアクティベーション関数を用いてmp-QPをモデル化し、分数次線形挙動を示すことを提案している。
本稿では,NNモデルパラメータを学習不要な問題係数から直接解析的に導出することにより,線形制約付きQPの正確な閉形式解を求めるNNモデリング手法と学習アルゴリズムを提案する。
一般DNNはトレーニング分布外の精度を保証できないが、閉形式NNモデルは、解関数のすべての臨界領域に対して正確な解を生成する。
閉形NNモデルを評価するため,電力管理における直流最適潮流問題に適用した。
Karush-Kuhn-Tucker (KKT) の最適性とソリューションの実現性に関しては、古典的に訓練されたDNNよりも優れており、計算コストがはるかに低い商業的解析解法(Gurobi)と競争あるいは競争力があった。
長距離エネルギー計画問題では、数百万の入力パラメータに対して最適かつ実現可能なソリューションを数秒で生成することができた。
関連論文リスト
- Partially-Supervised Neural Network Model For Quadratic Multiparametric Programming [2.765106384328772]
本研究では,大域的解関数の数学的構造を直接表現する部分教師付きNNアーキテクチャを提案する。
汎用的なNNトレーニング手法とは対照的に,PSNN法は最適化問題の数学的性質から直接モデル重みを導出する。
論文 参考訳(メタデータ) (2025-06-05T20:26:18Z) - A Guaranteed-Stable Neural Network Approach for Optimal Control of Nonlinear Systems [3.5000297213981653]
非線形システムの最適制御に対する有望なアプローチは、システムを反復線形化し、最適制御入力を決定するために各タイミングで最適化問題を解くことである。
このアプローチはオンライン最適化に依存するため、計算コストがかかるため、限られた計算資源を持つシステムでは非現実的である。
この問題の潜在的な解決策の1つは、ニューラルネットワーク(NN)を制御ループに組み込むことである。
論文 参考訳(メタデータ) (2025-01-28T22:55:47Z) - ILP-based Resource Optimization Realized by Quantum Annealing for Optical Wide-area Communication Networks -- A Framework for Solving Combinatorial Problems of a Real-world Application by Quantum Annealing [5.924780594614675]
近年の研究では、D-Wave AdvantageTM量子アニールシステムに組み込むことができる2次非拘束二元最適化(QUBO)問題として、そのような問題をいかに実装できるかを実証した。
本稿では、システムパラメータの最適化に関する調査と、ソリューションの品質をさらに向上させるために機械学習(ML)技術をどのように取り入れているかについて報告する。
我々は、このNNを単純な整数線形プログラミング(ILP)の例で実装し、D-Waveが取得しなかった解空間をNNが完全にマッピングする方法を実証した。
論文 参考訳(メタデータ) (2024-01-01T17:52:58Z) - Improved Training of Physics-Informed Neural Networks with Model
Ensembles [81.38804205212425]
我々は、PINNを正しい解に収束させるため、解区間を徐々に拡大することを提案する。
すべてのアンサンブルのメンバーは、観測されたデータの近くで同じ解に収束する。
提案手法は, 得られた解の精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-11T14:05:34Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - dNNsolve: an efficient NN-based PDE solver [62.997667081978825]
ODE/PDEを解決するためにデュアルニューラルネットワークを利用するdNNsolveを紹介します。
我々は,dNNsolveが1,2,3次元の幅広いODE/PDEを解くことができることを示す。
論文 参考訳(メタデータ) (2021-03-15T19:14:41Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z) - Optimizing Wireless Systems Using Unsupervised and
Reinforced-Unsupervised Deep Learning [96.01176486957226]
無線ネットワークにおけるリソース割り当てとトランシーバーは、通常最適化問題の解決によって設計される。
本稿では,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2020-01-03T11:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。