論文の概要: Variational Integrator Graph Networks for Learning Energy Conserving
Dynamical Systems
- arxiv url: http://arxiv.org/abs/2004.13688v2
- Date: Fri, 16 Jul 2021 16:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:24:19.528180
- Title: Variational Integrator Graph Networks for Learning Energy Conserving
Dynamical Systems
- Title(参考訳): 学習エネルギー保存力学系のための変分積分グラフネットワーク
- Authors: Shaan Desai, Marios Mattheakis and Stephen Roberts
- Abstract要約: 近年の進歩は、物理インフォームドプリエントに埋め込まれたニューラルネットワークが、学習においてバニラニューラルネットワークを著しく上回っていることを示している。
本稿では,エネルギー制約,高次変動,シンプレクティック変動,グラフニューラルネットワークを組み合わせることで,既存のアプローチの強みを統一する手法を提案する。
- 参考スコア(独自算出の注目度): 1.2522889958051286
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances show that neural networks embedded with physics-informed
priors significantly outperform vanilla neural networks in learning and
predicting the long term dynamics of complex physical systems from noisy data.
Despite this success, there has only been a limited study on how to optimally
combine physics priors to improve predictive performance. To tackle this
problem we unpack and generalize recent innovations into individual inductive
bias segments. As such, we are able to systematically investigate all possible
combinations of inductive biases of which existing methods are a natural
subset. Using this framework we introduce Variational Integrator Graph Networks
- a novel method that unifies the strengths of existing approaches by combining
an energy constraint, high-order symplectic variational integrators, and graph
neural networks. We demonstrate, across an extensive ablation, that the
proposed unifying framework outperforms existing methods, for data-efficient
learning and in predictive accuracy, across both single and many-body problems
studied in recent literature. We empirically show that the improvements arise
because high order variational integrators combined with a potential energy
constraint induce coupled learning of generalized position and momentum updates
which can be formalized via the Partitioned Runge-Kutta method.
- Abstract(参考訳): 近年の進歩は、物理インフォームド前のニューラルネットワークがバニラニューラルネットワークを著しく上回り、ノイズの多いデータから複雑な物理系の長期的ダイナミクスを予測することが示されている。
この成功にもかかわらず、予測性能を改善するために物理学を最適に結合する方法に関する限られた研究しか行われていない。
この問題に対処するため、最近のイノベーションを個別の帰納バイアスセグメントに解き放つ。
したがって、既存の手法が自然な部分集合である帰納的バイアスの可能なすべての組み合わせを体系的に研究することができる。
このフレームワークを用いて,エネルギー制約,高次シンプレクティック変分積分器,グラフニューラルネットワークを組み合わせることにより,既存の手法の強みを統一する新しい手法である変分積分グラフネットワークを提案する。
近年の文献で研究されている単体・多体両問題にまたがって,データ効率の学習や予測精度において,提案手法が既存の手法よりも優れていることを示す。
本研究では,高次変分積分器とポテンシャルエネルギー制約が組み合わさって一般化位置と運動量更新の複合学習を誘導し,分割ルンゲ・クッタ法により定式化できることを実証的に示す。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Dynamic Post-Hoc Neural Ensemblers [55.15643209328513]
本研究では,ニューラルネットワークをアンサンブル手法として活用することを検討する。
低多様性のアンサンブルを学習するリスクを動機として,ベースモデル予測をランダムにドロップすることでモデルの正規化を提案する。
このアプローチはアンサンブル内の多様性を低くし、オーバーフィッティングを減らし、一般化能力を向上させる。
論文 参考訳(メタデータ) (2024-10-06T15:25:39Z) - Demolition and Reinforcement of Memories in Spin-Glass-like Neural
Networks [0.0]
この論文の目的は、連想記憶モデルと生成モデルの両方において、アンラーニングの有効性を理解することである。
構造化データの選択により、連想記憶モデルは、相当量のアトラクションを持つニューラルダイナミクスのアトラクションとしての概念を検索することができる。
Boltzmann Machinesの新しい正規化手法が提案され、データセットから隠れ確率分布を学習する以前に開発された手法より優れていることが証明された。
論文 参考訳(メタデータ) (2024-03-04T23:12:42Z) - Learning Latent Dynamics via Invariant Decomposition and
(Spatio-)Temporal Transformers [0.6767885381740952]
本研究では,高次元経験データから力学系を学習する手法を提案する。
我々は、システムの複数の異なるインスタンスからデータが利用できる設定に焦点を当てる。
我々は、単純な理論的分析と、合成および実世界のデータセットに関する広範な実験を通して行動を研究する。
論文 参考訳(メタデータ) (2023-06-21T07:52:07Z) - Newton-Cotes Graph Neural Networks: On the Time Evolution of Dynamic
Systems [49.50674348130157]
本稿では,ニュートン・コーツの公式を用いた速度推定に基づく積分の予測手法を提案する。
いくつかのベンチマークの実験は、最先端の手法と比較して、一貫性と顕著な改善を実証的に示している。
論文 参考訳(メタデータ) (2023-05-24T02:23:00Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Stretched and measured neural predictions of complex network dynamics [2.1024950052120417]
微分方程式のデータ駆動近似は、力学系のモデルを明らかにする従来の方法に代わる有望な方法である。
最近、ダイナミックスを研究する機械学習ツールとしてニューラルネットワークが採用されている。これは、データ駆動型ソリューションの検出や微分方程式の発見に使用できる。
従来の統計学習理論の限界を超えてモデルの一般化可能性を拡張することは可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T09:44:59Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Deep learning of contagion dynamics on complex networks [0.0]
本稿では,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングに基づく補完的アプローチを提案する。
任意のネットワーク構造をシミュレーションすることで,学習したダイナミックスの性質を学習データを超えて探索することが可能になる。
この結果は,ネットワーク上での感染動態の効果的なモデルを構築するために,ディープラーニングが新たな補完的な視点を提供することを示す。
論文 参考訳(メタデータ) (2020-06-09T17:18:34Z) - Physics-based polynomial neural networks for one-shot learning of
dynamical systems from one or a few samples [0.0]
本論文は, 単純な振り子と世界最大規模のX線源の双方について, 実測結果について述べる。
提案手法により, ノイズ, 制限, 部分的な観測から複雑な物理を復元することができることが実証された。
論文 参考訳(メタデータ) (2020-05-24T09:27:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。