論文の概要: Forecasting Hamiltonian dynamics without canonical coordinates
- arxiv url: http://arxiv.org/abs/2010.15201v1
- Date: Wed, 28 Oct 2020 19:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 06:23:40.163883
- Title: Forecasting Hamiltonian dynamics without canonical coordinates
- Title(参考訳): 標準座標を持たないハミルトン力学の予測
- Authors: Anshul Choudhary, John F. Lindner, Elliott G. Holliday, Scott T.
Miller, Sudeshna Sinha, William L. Ditto
- Abstract要約: ハミルトンニューラルネットワークは、エネルギーを保存する力学系を効率的に学習し、予測することができる。
ここでは、容易に観測可能な座標を含む任意の一般化された座標を用いてそれらを訓練する簡単な方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional neural networks are universal function approximators, but
because they are unaware of underlying symmetries or physical laws, they may
need impractically many training data to approximate nonlinear dynamics.
Recently introduced Hamiltonian neural networks can efficiently learn and
forecast dynamical systems that conserve energy, but they require special
inputs called canonical coordinates, which may be hard to infer from data. Here
we significantly expand the scope of such networks by demonstrating a simple
way to train them with any set of generalised coordinates, including easily
observable ones.
- Abstract(参考訳): 従来のニューラルネットワークは普遍関数近似器であるが、基礎となる対称性や物理法則を知らないため、非線形力学を近似するためには不規則に多くのトレーニングデータが必要である。
近年導入されたハミルトニアンニューラルネットワークは、エネルギーを節約する力学系を効率的に学習し予測することができるが、データから推測するのが難しい正準座標と呼ばれる特別な入力を必要とする。
ここでは、観測可能な座標を含む任意の一般化座標のセットでネットワークを訓練する簡単な方法を示すことにより、ネットワークの範囲を大幅に拡大する。
関連論文リスト
- Applications of Machine Learning to Modelling and Analysing Dynamical
Systems [0.0]
本稿では,既存のハミルトンニューラルネットワーク構造を適応型シンプレクティックリカレントニューラルネットワークに組み合わせたアーキテクチャを提案する。
このアーキテクチャは、ハミルトニアン力学を予測する際に、これまで提案されていたニューラルネットワークよりも大幅に優れていた。
本手法は, 単一パラメータポテンシャルに対して有効であり, 長期間にわたって正確な予測を行うことができることを示す。
論文 参考訳(メタデータ) (2023-07-22T19:04:17Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - On the effectiveness of neural priors in modeling dynamical systems [28.69155113611877]
ニューラルネットワークがそのようなシステムを学ぶ際に提供するアーキテクチャの規則化について論じる。
動的システムをモデル化する際の複数の問題を解決するために,レイヤ数が少ない単純な座標ネットワークが利用できることを示す。
論文 参考訳(メタデータ) (2023-03-10T06:21:24Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Neural networks trained with SGD learn distributions of increasing
complexity [78.30235086565388]
勾配降下法を用いてトレーニングされたニューラルネットワークは、まず低次入力統計を用いて入力を分類する。
その後、トレーニング中にのみ高次の統計を利用する。
本稿では,DSBと他の単純度バイアスとの関係について論じ,学習における普遍性の原理にその意味を考察する。
論文 参考訳(メタデータ) (2022-11-21T15:27:22Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Locally-symplectic neural networks for learning volume-preserving
dynamics [0.0]
音量保存力学を学習するための局所シンプレクティックニューラルネットワーク LocSympNets を提案する。
LocSympNets の構成は、体積保存力学系のベクトル場の局所ハミルトン記述の定理に由来する。
論文 参考訳(メタデータ) (2021-09-19T15:58:09Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Sparse Symplectically Integrated Neural Networks [15.191984347149667]
SSINN(Sprselectically Integrated Neural Networks)を紹介する。
SSINNはデータからハミルトン力学系を学ぶための新しいモデルである。
古典的ハミルトン力学問題に対するSSINNの評価を行う。
論文 参考訳(メタデータ) (2020-06-10T03:33:37Z) - Lagrangian Neural Networks [3.0059120458540383]
ニューラルネットワークを用いて任意のラグランジアンをパラメータ化できるラグランジアンニューラルネットワーク(LNN)を提案する。
ハミルトン学を学ぶモデルとは対照的に、LNNは標準座標を必要としない。
ラグランジアングラフネットワークを用いて,このモデルをグラフや連続システムに適用する方法を示す。
論文 参考訳(メタデータ) (2020-03-10T10:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。