論文の概要: Separable Hamiltonian Neural Networks
- arxiv url: http://arxiv.org/abs/2309.01069v2
- Date: Wed, 6 Sep 2023 03:29:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 11:34:32.014697
- Title: Separable Hamiltonian Neural Networks
- Title(参考訳): 分離型ハミルトンニューラルネットワーク
- Authors: Zi-Yu Khoo, Jonathan Sze Choong Low and St\'ephane Bressan
- Abstract要約: ハミルトン系は、力学系の基本的なクラスであり、ユビキタスなクラスである。
ハミルトニアンニューラルネットワークは、力学系のハミルトニアンを教師なし回帰する最先端のモデルである。
加算分離性を組み込む3つの分離可能なハミルトンニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The modelling of dynamical systems from discrete observations is a challenge
faced by modern scientific and engineering data systems. Hamiltonian systems
are one such fundamental and ubiquitous class of dynamical systems. Hamiltonian
neural networks are state-of-the-art models that unsupervised-ly regress the
Hamiltonian of a dynamical system from discrete observations of its vector
field under the learning bias of Hamilton's equations. Yet Hamiltonian dynamics
are often complicated, especially in higher dimensions where the state space of
the Hamiltonian system is large relative to the number of samples. A recently
discovered remedy to alleviate the complexity between state variables in the
state space is to leverage the additive separability of the Hamiltonian system
and embed that additive separability into the Hamiltonian neural network.
Following the nomenclature of physics-informed machine learning, we propose
three separable Hamiltonian neural networks. These models embed additive
separability within Hamiltonian neural networks. The first model uses additive
separability to quadratically scale the amount of data for training Hamiltonian
neural networks. The second model embeds additive separability within the loss
function of the Hamiltonian neural network. The third model embeds additive
separability through the architecture of the Hamiltonian neural network using
conjoined multilayer perceptions. We empirically compare the three models
against state-of-the-art Hamiltonian neural networks, and demonstrate that the
separable Hamiltonian neural networks, which alleviate complexity between the
state variables, are more effective at regressing the Hamiltonian and its
vector field.
- Abstract(参考訳): 離散観測からの力学系のモデリングは、現代の科学・工学データシステムによって直面する課題である。
ハミルトン系はそのような基本的でユビキタスな力学系の1つである。
ハミルトニアンニューラルネットワークは、ハミルトン方程式の学習バイアスの下でベクトル場の離散的な観測から力学系のハミルトニアンを教師なしで回帰する最先端のモデルである。
しかし、ハミルトン力学はしばしば複雑であり、特にハミルトン系の状態空間がサンプル数に対して大きい高次元においてである。
状態空間における状態変数間の複雑性を軽減するための最近発見された治療法は、ハミルトン系の加法分離性を活用し、ハミルトンニューラルネットワークに加法分離性を埋め込むことである。
物理インフォームド機械学習の命名に続いて、3つの分離可能なハミルトンニューラルネットワークを提案する。
これらのモデルはハミルトンニューラルネットワーク内に加法分離性を埋め込む。
最初のモデルは加法分離性を使用して、ハミルトンニューラルネットワークをトレーニングするためのデータの量を4次スケールする。
2つ目のモデルはハミルトンニューラルネットワークの損失関数に加法分離性を埋め込む。
第3のモデルは、結合した多層的知覚を用いてハミルトンニューラルネットワークのアーキテクチャを通して加法分離性を埋め込む。
3つのモデルと最先端のハミルトンニューラルネットワークを実証的に比較し、状態変数間の複雑性を緩和する分離可能なハミルトンニューラルネットワークがハミルトンとそのベクトル場を回帰するのにより効果的であることを示す。
関連論文リスト
- Applications of Machine Learning to Modelling and Analysing Dynamical
Systems [0.0]
本稿では,既存のハミルトンニューラルネットワーク構造を適応型シンプレクティックリカレントニューラルネットワークに組み合わせたアーキテクチャを提案する。
このアーキテクチャは、ハミルトニアン力学を予測する際に、これまで提案されていたニューラルネットワークよりも大幅に優れていた。
本手法は, 単一パラメータポテンシャルに対して有効であり, 長期間にわたって正確な予測を行うことができることを示す。
論文 参考訳(メタデータ) (2023-07-22T19:04:17Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Hamiltonian Neural Networks with Automatic Symmetry Detection [0.0]
ハミルトニアンニューラルネットワーク(HNN)は、以前の物理知識を組み込むために導入された。
我々は、ニューラルネットワークに対称性を検出し、埋め込むために、Lie代数フレームワークを用いてHNNを強化した。
論文 参考訳(メタデータ) (2023-01-19T07:34:57Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Learning Neural Hamiltonian Dynamics: A Methodological Overview [109.40968389896639]
Hamiltonian dynamicsは、ニューラルネットワークに正確な長期予測、解釈可能性、データ効率の学習を与える。
我々は最近提案したハミルトンニューラルネットワークモデルについて、特に方法論に焦点を当てて体系的に調査した。
論文 参考訳(メタデータ) (2022-02-28T22:54:39Z) - Variational Monte Carlo calculations of $\mathbf{A\leq 4}$ nuclei with
an artificial neural-network correlator ansatz [62.997667081978825]
光核の基底状態波動関数をモデル化するためのニューラルネットワーク量子状態アンサッツを導入する。
我々は、Aleq 4$核の結合エネルギーと点核密度を、上位のピオンレス実効場理論から生じるものとして計算する。
論文 参考訳(メタデータ) (2020-07-28T14:52:28Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Sparse Symplectically Integrated Neural Networks [15.191984347149667]
SSINN(Sprselectically Integrated Neural Networks)を紹介する。
SSINNはデータからハミルトン力学系を学ぶための新しいモデルである。
古典的ハミルトン力学問題に対するSSINNの評価を行う。
論文 参考訳(メタデータ) (2020-06-10T03:33:37Z) - Hamiltonian neural networks for solving equations of motion [3.1498833540989413]
本稿では,力学系を支配する微分方程式を解くハミルトニアンニューラルネットワークを提案する。
シンプレクティックオイラー積分器は、数値誤差の同じ順序を達成するために、ハミルトンネットワークよりも2桁多くの評価点を必要とする。
論文 参考訳(メタデータ) (2020-01-29T21:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。