論文の概要: Nonlinear Optimization with GPU-Accelerated Neural Network Constraints
- arxiv url: http://arxiv.org/abs/2509.22462v1
- Date: Fri, 26 Sep 2025 15:13:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.536839
- Title: Nonlinear Optimization with GPU-Accelerated Neural Network Constraints
- Title(参考訳): GPU-Accelerated Neural Network Constraints による非線形最適化
- Authors: Robert Parker, Oscar Dowson, Nicole LoGiudice, Manuel Garcia, Russell Bent,
- Abstract要約: 我々は、ニューラルネットワークを「グレーボックス」として扱い、中間変数と制約が最適化解法に晒されないようにする。
フルスペースの定式化と比較すると、縮小空間の定式化は、インテリアポイント法におけるより高速な解法とより少ないイテレーションをもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a reduced-space formulation for optimizing over trained neural networks where the network's outputs and derivatives are evaluated on a GPU. To do this, we treat the neural network as a "gray box" where intermediate variables and constraints are not exposed to the optimization solver. Compared to the full-space formulation, in which intermediate variables and constraints are exposed to the optimization solver, the reduced-space formulation leads to faster solves and fewer iterations in an interior point method. We demonstrate the benefits of this method on two optimization problems: Adversarial generation for a classifier trained on MNIST images and security-constrained optimal power flow with transient feasibility enforced using a neural network surrogate.
- Abstract(参考訳): ネットワークの出力とデリバティブをGPU上で評価するトレーニングニューラルネットワークを最適化するための、空間の削減式を提案する。
これを実現するために、ニューラルネットワークを「グレーボックス」として扱い、中間変数と制約が最適化解法に晒されないようにする。
中間変数と制約が最適化解法に露出されるフルスペースの定式化と比較すると、減空間の定式化はより高速な解法とインテリアポイント法におけるイテレーションの削減につながる。
本手法の利点は,MNIST画像に基づいて訓練された分類器の逆生成と,ニューラルネットワークサロゲートを用いた過渡的実現性を有する最適電力フローである。
関連論文リスト
- Unrolled Graph Neural Networks for Constrained Optimization [83.29547301151177]
2つの結合グラフニューラルネットワーク(GNN)における双対昇降アルゴリズムのダイナミクスについて検討する。
予備的ネットワークと二重ネットワークの更新を交互に行う共同学習手法を提案する。
我々の数値実験は、我々のアプローチがほぼ最適に近いほぼ実現可能な解をもたらすことを示す。
論文 参考訳(メタデータ) (2025-09-21T16:55:41Z) - Formulations and scalability of neural network surrogates in nonlinear optimization problems [0.0]
非線形制約最適化問題において、トレーニングニューラルネットワークを表現するためのフルスペース、リダクションスペース、グレーボックスの定式化を比較した。
これらの定式化は、過渡安定に制約された、セキュリティに制約のある交流電流最適潮流(SCOPF)問題で検証する。
我々は、安定性の制約のないより単純なSCOPF問題に要する時間として2.5$timesで、我々の最大のニューラルネットワークサロゲートを用いて、テスト問題を解決する。
論文 参考訳(メタデータ) (2024-12-16T03:09:06Z) - Improving Generalization of Deep Neural Networks by Optimum Shifting [33.092571599896814]
本稿では,ニューラルネットワークのパラメータを最小値からフラット値に変化させる,近位シフトと呼ばれる新しい手法を提案する。
本手法は,ニューラルネットワークの入力と出力が固定された場合,ネットワーク内の行列乗算を,未決定線形方程式系として扱うことができることを示す。
論文 参考訳(メタデータ) (2024-05-23T02:31:55Z) - Optimization Over Trained Neural Networks: Taking a Relaxing Walk [4.517039147450688]
ニューラルネットワークモデルの大域的および局所的線形緩和を探索し,よりスケーラブルな解法を提案する。
我々の解法は最先端のMILP解法と競合し、それ以前には入力、深さ、ニューロン数の増加によるより良い解法を導出する。
論文 参考訳(メタデータ) (2024-01-07T11:15:00Z) - Unsupervised Optimal Power Flow Using Graph Neural Networks [172.33624307594158]
グラフニューラルネットワークを用いて、要求された電力と対応するアロケーションとの間の非線形パラメトリゼーションを学習する。
シミュレーションを通して、この教師なし学習コンテキストにおけるGNNの使用は、標準解法に匹敵するソリューションにつながることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:30:09Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - The Hidden Convex Optimization Landscape of Two-Layer ReLU Neural
Networks: an Exact Characterization of the Optimal Solutions [51.60996023961886]
コーン制約のある凸最適化プログラムを解くことにより,グローバルな2層ReLUニューラルネットワークの探索が可能であることを示す。
我々の分析は新しく、全ての最適解を特徴づけ、最近、ニューラルネットワークのトレーニングを凸空間に持ち上げるために使われた双対性に基づく分析を活用できない。
論文 参考訳(メタデータ) (2020-06-10T15:38:30Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。