論文の概要: The G\^ateaux-Hopfield Neural Network method
- arxiv url: http://arxiv.org/abs/2001.11853v1
- Date: Wed, 29 Jan 2020 19:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 20:34:21.048592
- Title: The G\^ateaux-Hopfield Neural Network method
- Title(参考訳): g\^ateaux-hopfieldニューラルネットワーク法
- Authors: Felipe Silva Carvalho, Jo\~ao Pedro Braga
- Abstract要約: 線形拡張ゲイトー微分(LEGD)を用いてホップフィールドニューラルネットワーク(HNN)法のための新しい微分方程式の集合を構築した。
この新しいアプローチは、GHNN(Gateaux-Hopfiel Neural Network)と呼ばれる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the present work a new set of differential equations for the Hopfield
Neural Network (HNN) method were established by means of the Linear Extended
Gateaux Derivative (LEGD). This new approach will be referred to as
G\^ateaux-Hopfiel Neural Network (GHNN). A first order Fredholm integral
problem was used to test this new method and it was found to converge 22 times
faster to the exact solutions for {\alpha} > 1 if compared with the HNN integer
order differential equations. Also a limit to the learning time is observed by
analysing the results for different values of {\alpha}. The robustness and
advantages of this new method will be pointed out.
- Abstract(参考訳): 本研究では,線形拡張ゲイトー導関数(LEGD)を用いて,ホップフィールドニューラルネットワーク(HNN)法における新しい微分方程式の集合を構築した。
この新しいアプローチは、G\^ateaux-Hopfiel Neural Network (GHNN)と呼ばれる。
1次フレドホルム積分問題はこの新しい方法をテストするために用いられ、HNN整数次微分方程式と比較すると、 {\alpha} > 1 の正確な解に22倍早く収束することが判明した。
また、異なる値 {\alpha} に対する結果を分析することにより、学習時間に対する制限も観測される。
この新手法の堅牢性と利点を指摘したい。
関連論文リスト
- Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - HNS: An Efficient Hermite Neural Solver for Solving Time-Fractional
Partial Differential Equations [12.520882780496738]
時間-屈折偏微分方程式を解くための高精度ハーマイトニューラルソルバー(HNS)を提案する。
実験の結果,HNSは既存のL1法に比べて精度と柔軟性が著しく向上していることがわかった。
論文 参考訳(メタデータ) (2023-10-07T12:44:47Z) - Physics-informed Neural Networks approach to solve the Blasius function [0.0]
本稿では,ブラシウス関数の解法として物理インフォームドニューラルネットワーク(PINN)を提案する。
本手法は, 数値的, 従来手法と同等の結果が得られた。
論文 参考訳(メタデータ) (2022-12-31T03:14:42Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Neural Basis Functions for Accelerating Solutions to High Mach Euler
Equations [63.8376359764052]
ニューラルネットワークを用いた偏微分方程式(PDE)の解法を提案する。
ニューラルネットワークの集合を縮小順序 Proper Orthogonal Decomposition (POD) に回帰する。
これらのネットワークは、所定のPDEのパラメータを取り込み、PDEに還元順序近似を計算する分岐ネットワークと組み合わせて使用される。
論文 参考訳(メタデータ) (2022-08-02T18:27:13Z) - Fast Neural Network based Solving of Partial Differential Equations [0.8460698440162889]
部分微分方程式(PDE)のクラスに対する解を見つけるためにニューラルネットワーク(NN)を用いる新しい手法を提案する。
提案手法は,近年のNeural Radiance Field Research (NeRFs) の進歩に基づいており,従来のPDEソリューションよりもはるかに高速に,NNをPDEソリューションに収束させることができる。
論文 参考訳(メタデータ) (2022-05-18T15:02:01Z) - Local Extreme Learning Machines and Domain Decomposition for Solving
Linear and Nonlinear Partial Differential Equations [0.0]
本稿では線形偏微分方程式と非線形偏微分方程式の解法を提案する。
この手法は、極端学習機械(ELM)、ドメイン分解、局所ニューラルネットワークのアイデアを組み合わせたものである。
本稿では,DGM法(Deep Galerkin Method)とPINN(Physical-informed Neural Network)を精度と計算コストの観点から比較する。
論文 参考訳(メタデータ) (2020-12-04T23:19:39Z) - Fourier Neural Operator for Parametric Partial Differential Equations [57.90284928158383]
積分カーネルを直接フーリエ空間でパラメータ化することで、新しいニューラル演算子を定式化する。
バーガースの方程式、ダーシー流、ナビエ・ストークス方程式の実験を行う。
従来のPDEソルバに比べて最大3桁高速である。
論文 参考訳(メタデータ) (2020-10-18T00:34:21Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z) - Unsupervised Learning of Solutions to Differential Equations with
Generative Adversarial Networks [1.1470070927586016]
本研究では,教師なしニューラルネットワークを用いた微分方程式の解法を開発した。
差分方程式GAN (DEQGAN) と呼ばれる手法は, 平均二乗誤差を桁違いに低減できることを示す。
論文 参考訳(メタデータ) (2020-07-21T23:36:36Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。