論文の概要: Separable Hamiltonian Neural Networks
- arxiv url: http://arxiv.org/abs/2309.01069v1
- Date: Sun, 3 Sep 2023 03:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 23:27:20.351849
- Title: Separable Hamiltonian Neural Networks
- Title(参考訳): 分離型ハミルトンニューラルネットワーク
- Authors: Zi-Yu Khoo, Jonathan Sze Choong Low and St\'ephane Bressan
- Abstract要約: ハミルトン系は、力学系の基本的なクラスであり、ユビキタスなクラスである。
ハミルトニアンニューラルネットワークは、力学系のハミルトニアンを教師なし回帰する最先端のモデルである。
加算分離性を組み込む3つの分離可能なハミルトンニューラルネットワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The modelling of dynamical systems from discrete observations is a challenge
faced by modern scientific and engineering data systems. Hamiltonian systems
are one such fundamental and ubiquitous class of dynamical systems. Hamiltonian
neural networks are state-of-the-art models that unsupervised-ly regress the
Hamiltonian of a dynamical system from discrete observations of its vector
field under the learning bias of Hamilton's equations. Yet Hamiltonian dynamics
are often complicated, especially in higher dimensions where the state space of
the Hamiltonian system is large relative to the number of samples. A recently
discovered remedy to alleviate the complexity between state variables in the
state space is to leverage the additive separability of the Hamiltonian system
and embed that additive separability into the Hamiltonian neural network.
Following the nomenclature of physics-informed machine learning, we propose
three separable Hamiltonian neural networks. These models embed additive
separability within Hamiltonian neural networks. The first model uses additive
separability to quadratically scale the amount of data for training Hamiltonian
neural networks. The second model embeds additive separability within the loss
function of the Hamiltonian neural network. The third model embeds additive
separability through the architecture of the Hamiltonian neural network using
conjoined multilayer perceptions. We empirically compare the three models
against state-of-the-art Hamiltonian neural networks, and demonstrate that the
separable Hamiltonian neural networks, which alleviate complexity between the
state variables, are more effective at regressing the Hamiltonian and its
vector field.
- Abstract(参考訳): 離散観測からの力学系のモデリングは、現代の科学・工学データシステムによって直面する課題である。
ハミルトン系はそのような基本的でユビキタスな力学系の1つである。
ハミルトニアンニューラルネットワークは、ハミルトン方程式の学習バイアスの下でベクトル場の離散的な観測から力学系のハミルトニアンを教師なしで回帰する最先端のモデルである。
しかし、ハミルトン力学はしばしば複雑であり、特にハミルトン系の状態空間がサンプル数に対して大きい高次元においてである。
状態空間における状態変数間の複雑性を軽減するための最近発見された治療法は、ハミルトン系の加法分離性を活用し、ハミルトンニューラルネットワークに加法分離性を埋め込むことである。
物理インフォームド機械学習の命名に続いて、3つの分離可能なハミルトンニューラルネットワークを提案する。
これらのモデルはハミルトンニューラルネットワーク内に加法分離性を埋め込む。
最初のモデルは加法分離性を使用して、ハミルトンニューラルネットワークをトレーニングするためのデータの量を4次スケールする。
2つ目のモデルはハミルトンニューラルネットワークの損失関数に加法分離性を埋め込む。
第3のモデルは、結合した多層的知覚を用いてハミルトンニューラルネットワークのアーキテクチャを通して加法分離性を埋め込む。
3つのモデルと最先端のハミルトンニューラルネットワークを実証的に比較し、状態変数間の複雑性を緩和する分離可能なハミルトンニューラルネットワークがハミルトンとそのベクトル場を回帰するのにより効果的であることを示す。
関連論文リスト
- Learning Generalized Hamiltonians using fully Symplectic Mappings [0.32985979395737786]
ハミルトン系は、保守的であり、すなわちエネルギーは進化を通して保存されるという重要な性質を持っている。
特にハミルトニアンニューラルネットワークは、構造的帰納バイアスをNNモデルに組み込むメカニズムとして登場した。
共振器のスキームはノイズに対して頑健であり,ノイズ観測から状態変数がサンプリングされた場合のハミルトニアン系の近似が良好であることを示す。
論文 参考訳(メタデータ) (2024-09-17T12:45:49Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Learning Neural Hamiltonian Dynamics: A Methodological Overview [109.40968389896639]
Hamiltonian dynamicsは、ニューラルネットワークに正確な長期予測、解釈可能性、データ効率の学習を与える。
我々は最近提案したハミルトンニューラルネットワークモデルについて、特に方法論に焦点を当てて体系的に調査した。
論文 参考訳(メタデータ) (2022-02-28T22:54:39Z) - SyMetric: Measuring the Quality of Learnt Hamiltonian Dynamics Inferred
from Vision [73.26414295633846]
最近提案されたモデルのクラスは、高次元観測から潜在力学を学習しようと試みている。
既存の手法は画像再構成の品質に依存しており、学習した潜在力学の質を常に反映しているわけではない。
我々は、基礎となるハミルトン力学が忠実に捕獲されたかどうかのバイナリ指標を含む、一連の新しい尺度を開発する。
論文 参考訳(メタデータ) (2021-11-10T23:26:58Z) - Symplectic Learning for Hamiltonian Neural Networks [0.0]
Hamiltonian Neural Networks (HNN)は、統一された"グレーボックス"アプローチに向けた第一歩を踏み出した。
損失関数が異なるハミルトン系のシンプレクティック構造を利用する。
HNNが学習できる正確なハミルトン関数の存在を数学的に保証する。
論文 参考訳(メタデータ) (2021-06-22T13:33:12Z) - A unified framework for Hamiltonian deep neural networks [3.0934684265555052]
ディープニューラルネットワーク(DNN)のトレーニングは、重み付け最適化中に勾配を消耗させるため、難しい場合がある。
ハミルトン系の時間離散化から派生したDNNのクラスを提案する。
提案されたハミルトンのフレームワークは、限界的に安定なODEにインスパイアされた既存のネットワークを包含する以外に、新しいより表現力のあるアーキテクチャを導出することができる。
論文 参考訳(メタデータ) (2021-04-27T13:20:24Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Sparse Symplectically Integrated Neural Networks [15.191984347149667]
SSINN(Sprselectically Integrated Neural Networks)を紹介する。
SSINNはデータからハミルトン力学系を学ぶための新しいモデルである。
古典的ハミルトン力学問題に対するSSINNの評価を行う。
論文 参考訳(メタデータ) (2020-06-10T03:33:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。