論文の概要: Universality of neural dynamics on complex networks
- arxiv url: http://arxiv.org/abs/2301.04900v1
- Date: Thu, 12 Jan 2023 09:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 13:59:40.194882
- Title: Universality of neural dynamics on complex networks
- Title(参考訳): 複雑ネットワークにおけるニューラルダイナミクスの普遍性
- Authors: Vaiva Vasiliauskaite and Nino Antulov-Fantulin
- Abstract要約: 複素ネットワーク上の力学を規定する常微分方程式の関数形式を学ぶためのグラフニューラルネットワークの能力について論じる。
ニューラルネットワークモデル: (i) 初期値データ分布の最初の瞬間に依存する一般化能力; (ii) ダイナミックスの非散逸性の性質を暗黙的に学習すること; (iii) モデルの精度分解限界は$mathcalO (1/sqrtn)$である。
- 参考スコア(独自算出の注目度): 3.2489082010225494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper discusses the capacity of graph neural networks to learn the
functional form of ordinary differential equations that govern dynamics on
complex networks. We propose necessary elements for such a problem, namely,
inductive biases, a neural network architecture and a learning task.
Statistical learning theory suggests that generalisation power of neural
networks relies on independence and identical distribution (i.i.d.)\ of
training and testing data. Although this assumption together with an
appropriate neural architecture and a learning mechanism is sufficient for
accurate out-of-sample predictions of dynamics such as, e.g.\ mass-action
kinetics, by studying the out-of-distribution generalisation in the case of
diffusion dynamics, we find that the neural network model: (i) has a
generalisation capacity that depends on the first moment of the initial value
data distribution; (ii) learns the non-dissipative nature of dynamics
implicitly; and (iii) the model's accuracy resolution limit is of order
$\mathcal{O}(1/\sqrt{n})$ for a system of size $n$.
- Abstract(参考訳): 本稿では,複素ネットワーク上の力学を規定する常微分方程式の関数形式を学ぶためのグラフニューラルネットワークの能力について論じる。
本稿では,そのような問題,すなわち帰納バイアス,ニューラルネットワークアーキテクチャ,学習タスクに必要な要素を提案する。
統計的学習理論は、ニューラルネットワークの一般化能力は、トレーニングとテストデータの独立性と同一分布(d.d.)に依存することを示唆している。
この仮定は、適切なニューラルネットワークアーキテクチャと学習機構とともに、例えば、拡散力学の場合の分布外一般化を研究することによって、例えば、質量運動学のようなダイナミクスのサンプル外の正確な予測に十分であるが、ニューラルネットワークモデルがあることが分かる。
(i)初期値データ流通の最初の瞬間に依存する一般化能力を有する。
(ii)非散逸的な力学の性質を暗黙的に学ぶこと、
(iii)モデルの精度の限界は、サイズが$n$のシステムに対して$\mathcal{o}(1/\sqrt{n})$である。
関連論文リスト
- Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - On the effectiveness of neural priors in modeling dynamical systems [28.69155113611877]
ニューラルネットワークがそのようなシステムを学ぶ際に提供するアーキテクチャの規則化について論じる。
動的システムをモデル化する際の複数の問題を解決するために,レイヤ数が少ない単純な座標ネットワークが利用できることを示す。
論文 参考訳(メタデータ) (2023-03-10T06:21:24Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Compositional Learning of Dynamical System Models Using Port-Hamiltonian
Neural Networks [32.707730631343416]
データから動的システムの複合モデルを学ぶためのフレームワークを提案する。
ニューラルネットワークサブモデルは、比較的単純なサブシステムによって生成された軌跡データに基づいて訓練される。
提案するフレームワークの新機能を数値例で示す。
論文 参考訳(メタデータ) (2022-12-01T22:22:38Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - Learning Individual Interactions from Population Dynamics with
Discrete-Event Simulation Model [6.914113067391971]
複雑なシステム力学の離散時間シミュレーション表現を学習する可能性について検討する。
この結果から,本アルゴリズムは,意味のあるイベントを持つ複数のフィールドにおいて,複雑なネットワークダイナミクスをデータ効率よくキャプチャできることがわかった。
論文 参考訳(メタデータ) (2022-05-04T21:33:56Z) - Constructing Neural Network-Based Models for Simulating Dynamical
Systems [59.0861954179401]
データ駆動モデリングは、真のシステムの観測からシステムの力学の近似を学ぼうとする代替パラダイムである。
本稿では,ニューラルネットワークを用いた動的システムのモデル構築方法について検討する。
基礎的な概要に加えて、関連する文献を概説し、このモデリングパラダイムが克服すべき数値シミュレーションから最も重要な課題を概説する。
論文 参考訳(メタデータ) (2021-11-02T10:51:42Z) - Supervised DKRC with Images for Offline System Identification [77.34726150561087]
現代の力学系はますます非線形で複雑なものになりつつある。
予測と制御のためのコンパクトで包括的な表現でこれらのシステムをモデル化するフレームワークが必要である。
本手法は,教師付き学習手法を用いてこれらの基礎関数を学習する。
論文 参考訳(メタデータ) (2021-09-06T04:39:06Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Learning Stable Deep Dynamics Models [91.90131512825504]
状態空間全体にわたって安定することが保証される力学系を学習するためのアプローチを提案する。
このような学習システムは、単純な力学系をモデル化することができ、複雑な力学を学習するために追加の深層生成モデルと組み合わせることができることを示す。
論文 参考訳(メタデータ) (2020-01-17T00:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。