論文の概要: Generalized Lagrangian Neural Networks
- arxiv url: http://arxiv.org/abs/2401.03728v1
- Date: Mon, 8 Jan 2024 08:26:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 17:27:54.032575
- Title: Generalized Lagrangian Neural Networks
- Title(参考訳): 一般化ラグランジアンニューラルネットワーク
- Authors: Shanshan Xiao, Jiawei Zhang, Yifa Tang
- Abstract要約: ラグランジアンニューラルネット(LNN)へのグランドブレーキング拡張(ゲンラル化ラグランジアンニューラルネット)を導入する。
ラグランジュ方程式におけるラグランジュ方程式の基本的な重要性を活用することにより、一般化されたラグランジュ方程式に基づいてモデルを定式化する。
この修正は予測精度を高めるだけでなく、非保守系におけるラグランジアン表現も保証する。
- 参考スコア(独自算出の注目度): 8.065464912030352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Incorporating neural networks for the solution of Ordinary Differential
Equations (ODEs) represents a pivotal research direction within computational
mathematics. Within neural network architectures, the integration of the
intrinsic structure of ODEs offers advantages such as enhanced predictive
capabilities and reduced data utilization. Among these structural ODE forms,
the Lagrangian representation stands out due to its significant physical
underpinnings. Building upon this framework, Bhattoo introduced the concept of
Lagrangian Neural Networks (LNNs). Then in this article, we introduce a
groundbreaking extension (Genralized Lagrangian Neural Networks) to Lagrangian
Neural Networks (LNNs), innovatively tailoring them for non-conservative
systems. By leveraging the foundational importance of the Lagrangian within
Lagrange's equations, we formulate the model based on the generalized
Lagrange's equation. This modification not only enhances prediction accuracy
but also guarantees Lagrangian representation in non-conservative systems.
Furthermore, we perform various experiments, encompassing 1-dimensional and
2-dimensional examples, along with an examination of the impact of network
parameters, which proved the superiority of Generalized Lagrangian Neural
Networks(GLNNs).
- Abstract(参考訳): 正規微分方程式(ODE)の解に対するニューラルネットワークの導入は、計算数学における重要な研究方向である。
ニューラルネットワークアーキテクチャでは、odesの内部構造の統合は、予測能力の向上やデータ利用の削減といったアドバンテージを提供する。
これらの構造ODE形式の中で、ラグランジアン表現はその重要な物理的基盤のために際立っている。
このフレームワークに基づいて、Bhattoo氏はLagrangian Neural Networks(LNN)の概念を導入した。
そこで本論文では,ラグランジアンニューラルネットワーク(LNN)に対して,非保守系に最適化した基盤破壊拡張(Genralized Lagrangian Neural Networks)を導入する。
ラグランジュ方程式の基本的な重要性を活用することで、一般化されたラグランジュ方程式に基づいてモデルを定式化する。
この修正は予測精度を高めるだけでなく、非保守系におけるラグランジアン表現も保証する。
さらに,1次元および2次元の例を含む様々な実験を行い,一般化ラグランジアンニューラルネットワーク(glnn)の優位性を証明したネットワークパラメータの影響について検討した。
関連論文リスト
- Theoretical characterisation of the Gauss-Newton conditioning in Neural Networks [5.851101657703105]
ニューラルネットワークにおけるガウスニュートン行列(GN)の条件付けを理論的に特徴付けるための第一歩を踏み出す。
我々は、任意の深さと幅の深い線形ネットワークにおいて、GNの条件数に厳密な境界を確立する。
残りの接続や畳み込み層といったアーキテクチャコンポーネントに分析を拡張します。
論文 参考訳(メタデータ) (2024-11-04T14:56:48Z) - Novel Kernel Models and Exact Representor Theory for Neural Networks Beyond the Over-Parameterized Regime [52.00917519626559]
本稿では、ニューラルネットワークの2つのモデルと、任意の幅、深さ、トポロジーのニューラルネットワークに適用可能なトレーニングについて述べる。
また、局所外在性神経核(LeNK)の観点から、非正規化勾配降下を伴う階層型ニューラルネットワークトレーニングのための正確な表現子理論を提示する。
この表現論は、ニューラルネットワークトレーニングにおける高次統計学の役割と、ニューラルネットワークのカーネルモデルにおけるカーネル進化の影響について洞察を与える。
論文 参考訳(メタデータ) (2024-05-24T06:30:36Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Fully Differentiable Lagrangian Convolutional Neural Network for
Continuity-Consistent Physics-Informed Precipitation Nowcasting [0.0]
本稿では,データ駆動学習と物理インフォームドドメイン知識を組み合わせた降水流の畳み込みニューラルネットワークモデルを提案する。
そこで我々は,従来の外挿手法を取り入れたラグランジアンダブルU-Net for Physics-Informed Nowcastingを提案する。
我々の評価に基づいて、LUPINは選択したベンチマークのパフォーマンスと一致し、他のラグランジアン機械学習モデルへの扉を開く。
論文 参考訳(メタデータ) (2024-02-16T15:13:30Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Lagrangian Density Space-Time Deep Neural Network Topology [0.0]
我々は,LDDNN(Lagrangian Density Space-Time Deep Neural Networks)トポロジを提案する。
基礎となる物理科学が支配する現象の力学を予測するために、教師なしの訓練と学習を行う資格がある。
本稿では、ラグランジアン領域とハミルトン領域におけるニューラルネットワークの統計的物理解釈について論じる。
論文 参考訳(メタデータ) (2022-06-30T03:29:35Z) - Universal approximation property of invertible neural networks [76.95927093274392]
Invertible Neural Network (INN) は、設計によって可逆性を持つニューラルネットワークアーキテクチャである。
その可逆性とヤコビアンのトラクタビリティのおかげで、IGNは確率的モデリング、生成的モデリング、表現的学習など、さまざまな機械学習応用がある。
論文 参考訳(メタデータ) (2022-04-15T10:45:26Z) - Stability of Algebraic Neural Networks to Small Perturbations [179.55535781816343]
Algebraic Neural Network (AlgNN) は、代数的信号モデルと関連する各層のカスケードで構成されている。
畳み込みという形式的な概念を用いるアーキテクチャは、シフト演算子の特定の選択を超えて、いかに安定であるかを示す。
論文 参考訳(メタデータ) (2020-10-22T09:10:16Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - A Lagrangian Approach to Information Propagation in Graph Neural
Networks [21.077268852378385]
本稿では,グラフニューラルネットワーク(GNN)モデルに対する状態計算と学習アルゴリズムの新たなアプローチを提案する。
状態収束手順は、制約満足度機構によって暗黙的に表現され、学習手順の各エポックに対して別々の反復フェーズを必要としない。
実際、計算構造はウェイト、ニューラルアウトプット(ノード状態)、ラグランジュ乗数からなる随伴空間におけるラグランジアンのサドル点の探索に基づいている。
論文 参考訳(メタデータ) (2020-02-18T16:13:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。