論文の概要: Weak Form Generalized Hamiltonian Learning
- arxiv url: http://arxiv.org/abs/2104.05096v1
- Date: Sun, 11 Apr 2021 20:25:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:01:20.663925
- Title: Weak Form Generalized Hamiltonian Learning
- Title(参考訳): 弱形式一般化ハミルトン学習
- Authors: Kevin L. Course, Trefor W. Evans, Prasanth B. Nair
- Abstract要約: 一般微分方程式の一般化ハミルトン分解を学習する手法を提案する。
本手法は,一般力学系の連続時間モデルとスカラーエネルギー関数を同時に学習する。
- 参考スコア(独自算出の注目度): 12.031796234206137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for learning generalized Hamiltonian decompositions of
ordinary differential equations given a set of noisy time series measurements.
Our method simultaneously learns a continuous time model and a scalar energy
function for a general dynamical system. Learning predictive models in this
form allows one to place strong, high-level, physics inspired priors onto the
form of the learnt governing equations for general dynamical systems. Moreover,
having shown how our method extends and unifies some previous work in deep
learning with physics inspired priors, we present a novel method for learning
continuous time models from the weak form of the governing equations which is
less computationally taxing than standard adjoint methods.
- Abstract(参考訳): 本稿では, 一般微分方程式の一般化されたハミルトン分解の学習法について述べる。
本手法は一般力学系の連続時間モデルとスカラーエネルギー関数を同時に学習する。
この形で予測モデルを学ぶことは、一般的な力学系のための学習可能な支配方程式の形式に、強力でハイレベルな物理学を先行させることができる。
さらに,本手法が物理にインスパイアされた先行研究の深層学習をいかに拡張・統一するかを示すとともに,従来の随伴法よりも計算量が少ない支配方程式の弱形式から連続時間モデルを学習するための新しい手法を提案する。
関連論文リスト
- Tensor Decompositions Meet Control Theory: Learning General Mixtures of
Linear Dynamical Systems [19.47235707806519]
テンソル分解に基づく線形力学系の混合を学習するための新しいアプローチを提案する。
このアルゴリズムは, 成分の分離条件が強くないまま成功し, 軌道のベイズ最適クラスタリングと競合することができる。
論文 参考訳(メタデータ) (2023-07-13T03:00:01Z) - Discovering ordinary differential equations that govern time-series [65.07437364102931]
本研究では, 1つの観測解の時系列データから, スカラー自律常微分方程式(ODE)を記号形式で復元するトランスフォーマーに基づくシーケンス・ツー・シーケンス・モデルを提案する。
提案手法は, 1回に一度, ODE の大規模な事前訓練を行った後, モデルのいくつかの前方通過において, 新たに観測された解の法則を推測することができる。
論文 参考訳(メタデータ) (2022-11-05T07:07:58Z) - Dynamic Bayesian Learning and Calibration of Spatiotemporal Mechanistic
System [0.0]
ノイズ観測に基づくメカニカルモデルの完全学習と校正のためのアプローチを開発する。
通常の偏微分方程式と偏微分方程式の分析から生じる問題を解くことで、この柔軟性を実証する。
論文 参考訳(メタデータ) (2022-08-12T23:17:46Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z) - Learning continuous models for continuous physics [94.42705784823997]
本研究では,科学技術応用のための機械学習モデルを検証する数値解析理論に基づくテストを開発する。
本研究は,従来のMLトレーニング/テスト手法と一体化して,科学・工学分野におけるモデルの検証を行う方法である。
論文 参考訳(メタデータ) (2022-02-17T07:56:46Z) - Which priors matter? Benchmarking models for learning latent dynamics [70.88999063639146]
古典力学の先行概念を機械学習モデルに統合する手法が提案されている。
これらのモデルの現在の機能について、精査する。
連続的および時間的可逆的ダイナミクスの使用は、すべてのクラスのモデルに恩恵をもたらす。
論文 参考訳(メタデータ) (2021-11-09T23:48:21Z) - OnsagerNet: Learning Stable and Interpretable Dynamics using a
Generalized Onsager Principle [19.13913681239968]
我々は、一般化オンサーガー原理に基づいて、物理過程からサンプリングされた軌道データを用いて、安定かつ物理的に解釈可能な力学モデルを学ぶ。
さらに、この手法をレイリー・ベナード対流の研究に応用し、ローレンツ風の低次元自律還元次モデルを学ぶ。
論文 参考訳(メタデータ) (2020-09-06T07:30:59Z) - PDE-Driven Spatiotemporal Disentanglement [0.0]
機械学習コミュニティにおける最近の研究は、微分方程式理論から特定のツールを活用することで、高次元現象を予測する問題に対処している。
本稿では, 偏微分方程式の解法, 変数の分離に基づく, このタスクのための新しい, 一般的なパラダイムを提案する。
物理および合成ビデオデータセット上での先行技術モデルに対する提案手法の性能と適用性について実験的に検証した。
論文 参考訳(メタデータ) (2020-08-04T06:10:30Z) - STEER: Simple Temporal Regularization For Neural ODEs [80.80350769936383]
トレーニング中のODEの終了時刻をランダムにサンプリングする新しい正規化手法を提案する。
提案された正規化は実装が簡単で、オーバーヘッドを無視でき、様々なタスクで有効である。
本稿では,フローの正規化,時系列モデル,画像認識などの実験を通じて,提案した正規化がトレーニング時間を大幅に短縮し,ベースラインモデルよりも性能を向上できることを示す。
論文 参考訳(メタデータ) (2020-06-18T17:44:50Z) - Learning Stable Deep Dynamics Models [91.90131512825504]
状態空間全体にわたって安定することが保証される力学系を学習するためのアプローチを提案する。
このような学習システムは、単純な力学系をモデル化することができ、複雑な力学を学習するために追加の深層生成モデルと組み合わせることができることを示す。
論文 参考訳(メタデータ) (2020-01-17T00:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。