論文の概要: Optimization-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2210.02113v1
- Date: Wed, 5 Oct 2022 09:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 15:28:59.309778
- Title: Optimization-Informed Neural Networks
- Title(参考訳): 最適化型ニューラルネットワーク
- Authors: Dawen Wu, Abdel Lisser
- Abstract要約: 制約付き非線形最適化問題を解くために最適化インフォームドニューラルネットワーク(OINN)を提案する。
簡単に言うと、OINNはCNLPをニューラルネットワークトレーニング問題に変換する。
提案手法の有効性は古典的な問題の収集を通じて実証される。
- 参考スコア(独自算出の注目度): 0.6853165736531939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solving constrained nonlinear optimization problems (CNLPs) is a longstanding
problem that arises in various fields, e.g., economics, computer science, and
engineering. We propose optimization-informed neural networks (OINN), a deep
learning approach to solve CNLPs. By neurodynamic optimization methods, a CNLP
is first reformulated as an initial value problem (IVP) involving an ordinary
differential equation (ODE) system. A neural network model is then used as an
approximate solution for this IVP, with the endpoint being the prediction to
the CNLP. We propose a novel training algorithm that directs the model to hold
the best prediction during training. In a nutshell, OINN transforms a CNLP into
a neural network training problem. By doing so, we can solve CNLPs based on
deep learning infrastructure only, without using standard optimization solvers
or numerical integration solvers. The effectiveness of the proposed approach is
demonstrated through a collection of classical problems, e.g., variational
inequalities, nonlinear complementary problems, and standard CNLPs.
- Abstract(参考訳): 制約付き非線形最適化問題 (cnlps) の解決は、経済学、計算機科学、工学など様々な分野において長年の課題である。
我々は,CNLPの解法として最適化インフォームドニューラルネットワーク(OINN)を提案する。
神経力学最適化法により、CNLPは、通常微分方程式(ODE)系を含む初期値問題(IVP)として初めて再帰される。
次に、ニューラルネットワークモデルがこのIPPの近似解として使用され、終端がCNLPの予測である。
本稿では,トレーニング中に最高の予測を行うようモデルに指示する新しいトレーニングアルゴリズムを提案する。
簡単に言うと、OINNはCNLPをニューラルネットワークトレーニング問題に変換する。
これにより、標準的な最適化解法や数値積分解法を使わずに、ディープラーニングインフラストラクチャのみに基づいてCNLPを解くことができる。
提案手法の有効性は, 変分不等式, 非線形相補問題, 標準cnlpなど, 古典的問題の集合を通して実証された。
関連論文リスト
- Model Based and Physics Informed Deep Learning Neural Network Structures [7.095119621199481]
ニューラルネットワーク(NN)は多くの分野で利用されており、大きな成功を収めている。
大きな難題の1つは、NNの構造の選択である。
モデルベース信号と画像処理と逆問題手法を用いてこの問題を考察する。
論文 参考訳(メタデータ) (2024-08-13T07:28:38Z) - A Stable and Scalable Method for Solving Initial Value PDEs with Neural
Networks [52.5899851000193]
我々は,ネットワークの条件が悪くなるのを防止し,パラメータ数で時間線形に動作するODEベースのIPPソルバを開発した。
このアプローチに基づく現在の手法は2つの重要な問題に悩まされていることを示す。
まず、ODEに従うと、問題の条件付けにおいて制御不能な成長が生じ、最終的に許容できないほど大きな数値誤差が生じる。
論文 参考訳(メタデータ) (2023-04-28T17:28:18Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - An alternative approach to train neural networks using monotone
variational inequality [22.320632565424745]
本稿では,モノトーンベクトル場を用いたニューラルネットワークトレーニングの代替手法を提案する。
我々のアプローチは、事前訓練されたニューラルネットワークのより効率的な微調整に利用できる。
論文 参考訳(メタデータ) (2022-02-17T19:24:20Z) - Adaptive neural domain refinement for solving time-dependent
differential equations [0.0]
ニューラルネットワークを用いた微分方程式の古典的な解法は、解領域の離散化を伴う微分方程式を用いるニューラルネットワーク形式に基づいている。
このような重要かつ成功した戦略を、ニューラルネットワークベースのソリューションの分野に移行することが望ましい。
本稿では,時間依存問題の解決を目的とした新しい適応型ニューラルアプローチを提案する。
論文 参考訳(メタデータ) (2021-12-23T13:19:07Z) - Acceleration techniques for optimization over trained neural network
ensembles [1.0323063834827415]
本研究では, 線形単位活性化の補正されたフィードフォワードニューラルネットワークを用いて, 目的関数をモデル化する最適化問題について検討する。
本稿では,1つのニューラルネットワークを最適化するために,既存のBig-M$の定式化をベースとした混合整数線形プログラムを提案する。
論文 参考訳(メタデータ) (2021-12-13T20:50:54Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Resource Allocation via Graph Neural Networks in Free Space Optical
Fronthaul Networks [119.81868223344173]
本稿では,自由空間光(FSO)フロントホールネットワークにおける最適資源割り当てについて検討する。
我々は、FSOネットワーク構造を利用するために、ポリシーパラメータ化のためのグラフニューラルネットワーク(GNN)を検討する。
本アルゴリズムは,システムモデルに関する知識が不要なモデルフリーでGNNを訓練するために開発された。
論文 参考訳(メタデータ) (2020-06-26T14:20:48Z) - ODEN: A Framework to Solve Ordinary Differential Equations using
Artificial Neural Networks [0.0]
我々は、ニューラルネットワークの性能を評価するために、正確な解の知識を必要としない特定の損失関数を証明した。
ニューラルネットワークは、トレーニング領域内での継続的ソリューションの近似に熟練していることが示されている。
ユーザフレンドリで適応可能なオープンソースコード(ODE$mathcalN$)がGitHubで提供されている。
論文 参考訳(メタデータ) (2020-05-28T15:34:10Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。