論文の概要: The neural network models with delays for solving absolute value
equations
- arxiv url: http://arxiv.org/abs/2310.10965v1
- Date: Tue, 17 Oct 2023 03:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 17:42:04.981244
- Title: The neural network models with delays for solving absolute value
equations
- Title(参考訳): 絶対値方程式を解くための遅延を伴うニューラルネットワークモデル
- Authors: Dongmei Yu, Gehao Zhang, Cairong Chen, Deren Han
- Abstract要約: 絶対値方程式 (AVE) $Ax -|x| - b =0$ を解くために, 混合遅延を持つ逆フリーニューラルネットワークモデルを提案する。
Lyapunov-Krasovskii理論と線形行列不等式(LMI)法を用いることで、開発されたニューラルネットワークモデルがAVEの解に指数収束することが証明された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An inverse-free neural network model with mixed delays is proposed for
solving the absolute value equation (AVE) $Ax -|x| - b =0$, which includes an
inverse-free neural network model with discrete delay as a special case. By
using the Lyapunov-Krasovskii theory and the linear matrix inequality (LMI)
method, the developed neural network models are proved to be exponentially
convergent to the solution of the AVE. Compared with the existing neural
network models for solving the AVE, the proposed models feature the ability of
solving a class of AVE with $\|A^{-1}\|>1$. Numerical simulations are given to
show the effectiveness of the two delayed neural network models.
- Abstract(参考訳): 離散遅延を持つ逆自由ニューラルネットワークモデルを含む絶対値方程式 (AVE) $Ax -|x| - b =0$ の解法として、混合遅延を持つ逆自由ニューラルネットワークモデルを提案する。
Lyapunov-Krasovskii理論と線形行列不等式(LMI)法を用いることで、開発されたニューラルネットワークモデルがAVEの解に指数収束することが証明された。
AVEを解くための既存のニューラルネットワークモデルと比較して、提案モデルは$\|A^{-1}\|>1$でAVEのクラスを解く能力を備えている。
2つの遅延ニューラルネットワークモデルの有効性を示すために数値シミュレーションが行われる。
関連論文リスト
- Chebyshev Spectral Neural Networks for Solving Partial Differential Equations [0.0]
この研究は、フィードフォワードニューラルネットワークモデルとエラーバックプロパゲーション原理を用いて、損失関数の計算に自動微分(AD)を利用する。
楕円偏微分方程式を用いて,CSNNモデルの数値効率と精度について検討し,よく知られた物理インフォームドニューラルネットワーク(PINN)法と比較した。
論文 参考訳(メタデータ) (2024-06-06T05:31:45Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Mapping back and forth between model predictive control and neural networks [0.0]
2次コストと線形制約を持つ線形系に対するモデル予測制御(MPC)は、暗黙のニューラルネットワークとして正確に表現されていることを示す。
また、MPCの暗黙のニューラルネットワークを明示的なニューラルネットワークに"解き放つ"方法も導入されている。
論文 参考訳(メタデータ) (2024-04-18T09:29:08Z) - Burgers' pinns with implicit euler transfer learning [0.0]
バーガーズ方程式は、いくつかの現象の計算モデルにおいて確立されたテストケースである。
本稿では,バーガース方程式を解くために,暗黙のオイラー変換学習手法を用いた物理情報ニューラルネットワーク(PINN)の適用について述べる。
論文 参考訳(メタデータ) (2023-10-23T20:15:45Z) - Provable Identifiability of Two-Layer ReLU Neural Networks via LASSO
Regularization [15.517787031620864]
LASSOの領域は、ファッショナブルで強力な非線形回帰モデルである2層ReLUニューラルネットワークに拡張される。
LASSO推定器はニューラルネットワークを安定的に再構築し,サンプル数が対数的にスケールする場合に$mathcalSstar$を識別可能であることを示す。
我々の理論は、2層ReLUニューラルネットワークのための拡張Restricted Isometry Property (RIP)ベースの分析フレームワークにある。
論文 参考訳(メタデータ) (2023-05-07T13:05:09Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - On the balance between the training time and interpretability of neural
ODE for time series modelling [77.34726150561087]
本稿は,現代のニューラルODEを,時系列モデリングアプリケーションのためのより単純なモデルに還元することはできないことを示す。
ニューラルODEの複雑さは、従来の時系列モデリングツールと比較されるか、超える。
本稿では,ニューラルネットワークとODEシステムを用いた時系列モデリングの新しい視点を提案する。
論文 参考訳(メタデータ) (2022-06-07T13:49:40Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - An alternative approach to train neural networks using monotone
variational inequality [22.320632565424745]
本稿では,モノトーンベクトル場を用いたニューラルネットワークトレーニングの代替手法を提案する。
我々のアプローチは、事前訓練されたニューラルネットワークのより効率的な微調整に利用できる。
論文 参考訳(メタデータ) (2022-02-17T19:24:20Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Measuring Model Complexity of Neural Networks with Curve Activation
Functions [100.98319505253797]
本稿では,線形近似ニューラルネットワーク(LANN)を提案する。
ニューラルネットワークのトレーニングプロセスを実験的に検討し、オーバーフィッティングを検出する。
我々は、$L1$と$L2$正規化がモデルの複雑さの増加を抑制することを発見した。
論文 参考訳(メタデータ) (2020-06-16T07:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。