論文の概要: Latent Dynamics Networks (LDNets): learning the intrinsic dynamics of
spatio-temporal processes
- arxiv url: http://arxiv.org/abs/2305.00094v1
- Date: Fri, 28 Apr 2023 21:11:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 17:07:31.830565
- Title: Latent Dynamics Networks (LDNets): learning the intrinsic dynamics of
spatio-temporal processes
- Title(参考訳): 潜在ダイナミクスネットワーク(LDNets):時空間過程の固有ダイナミクスの学習
- Authors: Francesco Regazzoni and Stefano Pagani and Matteo Salvador and Luca
Dede' and Alfio Quarteroni
- Abstract要約: ラテント・ダイナミクス・ネットワーク(LDNet)は、非マルコフ力学系の低次元固有力学を発見できる。
LDNetは軽量で訓練が容易で、時間外挿方式でも精度と一般化性に優れている。
- 参考スコア(独自算出の注目度): 2.3694122563610924
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting the evolution of systems that exhibit spatio-temporal dynamics in
response to external stimuli is a key enabling technology fostering scientific
innovation. Traditional equations-based approaches leverage first principles to
yield predictions through the numerical approximation of high-dimensional
systems of differential equations, thus calling for large-scale parallel
computing platforms and requiring large computational costs. Data-driven
approaches, instead, enable the description of systems evolution in
low-dimensional latent spaces, by leveraging dimensionality reduction and deep
learning algorithms. We propose a novel architecture, named Latent Dynamics
Network (LDNet), which is able to discover low-dimensional intrinsic dynamics
of possibly non-Markovian dynamical systems, thus predicting the time evolution
of space-dependent fields in response to external inputs. Unlike popular
approaches, in which the latent representation of the solution manifold is
learned by means of auto-encoders that map a high-dimensional discretization of
the system state into itself, LDNets automatically discover a low-dimensional
manifold while learning the latent dynamics, without ever operating in the
high-dimensional space. Furthermore, LDNets are meshless algorithms that do not
reconstruct the output on a predetermined grid of points, but rather at any
point of the domain, thus enabling weight-sharing across query-points. These
features make LDNets lightweight and easy-to-train, with excellent accuracy and
generalization properties, even in time-extrapolation regimes. We validate our
method on several test cases and we show that, for a challenging
highly-nonlinear problem, LDNets outperform state-of-the-art methods in terms
of accuracy (normalized error 5 times smaller), by employing a dramatically
smaller number of trainable parameters (more than 10 times fewer).
- Abstract(参考訳): 外部刺激に応答して時空間ダイナミクスを示すシステムの進化を予測することは、科学的イノベーションを促進する技術を実現する鍵となる。
従来の方程式に基づくアプローチでは、微分方程式の高次元系の数値近似を通じて予測を導出するために第一原理を利用する。
データ駆動アプローチは、次元の縮小とディープラーニングアルゴリズムを活用することで、低次元の潜在空間におけるシステム進化の記述を可能にする。
本研究では,非マルコフ力学系の低次元固有力学を探索し,外部入力に応答して空間依存場の時間発展を予測できる,ultnt dynamics network (ldnet) という新しいアーキテクチャを提案する。
システム状態の高次元離散化を自身にマッピングするオートエンコーダによって解多様体の潜在表現を学習する一般的なアプローチとは異なり、ldnetsは高次元空間で操作することなく、潜在力学を学習しながら自動的に低次元多様体を発見する。
さらにLDNetは、所定の点のグリッド上で出力を再構築するのではなく、ドメインの任意の点において、クエリポイント間の重み共有を可能にするメッシュレスアルゴリズムである。
これらの特徴によりLDNetsは軽量で訓練が容易で、タイムエクストラポレーションでも精度と一般化性に優れている。
提案手法をいくつかのテストケースで検証し,高い非線形問題に対して,LDNetsはトレーニング可能なパラメータを劇的に少なく(10倍以上)、精度(正規化誤差が5倍小さい)で最先端の手法より優れていることを示す。
関連論文リスト
- Parametric Taylor series based latent dynamics identification neural networks [0.3139093405260182]
非線形力学の新しい潜在的同定法であるP-TLDINetを導入する。
これはテイラー級数展開とResNetsに基づく新しいニューラルネットワーク構造に依存している。
論文 参考訳(メタデータ) (2024-10-05T15:10:32Z) - Liquid Fourier Latent Dynamics Networks for fast GPU-based numerical simulations in computational cardiology [0.0]
複素測地上での高次非線形微分方程式の多スケールおよび多物理集合に対するパラメータ化時空間サロゲートモデルを作成するために、Latent Dynamics Networks(LDNets)の拡張を提案する。
LFLDNetは、時間的ダイナミクスのために神経学的にインスパイアされたスパースな液体ニューラルネットワークを使用し、時間進行のための数値ソルバの要求を緩和し、パラメータ、精度、効率、学習軌道の点で優れたパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2024-08-19T09:14:25Z) - Systematic construction of continuous-time neural networks for linear dynamical systems [0.0]
本稿では,動的システムのサブクラスをモデル化するためのニューラルネットワーク構築の体系的アプローチについて論じる。
我々は、各ニューロンの出力が1次または2次常微分方程式(ODE)の解として連続的に進化する連続時間ニューラルネットワークの変種を用いる。
データからネットワークアーキテクチャとパラメータを導出する代わりに、所定のLTIシステムから直接スパースアーキテクチャとネットワークパラメータを計算するための勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-24T16:16:41Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Deep Learning-based surrogate models for parametrized PDEs: handling
geometric variability through graph neural networks [0.0]
本研究では,時間依存型PDEシミュレーションにおけるグラフニューラルネットワーク(GNN)の可能性について検討する。
本稿では,データ駆動型タイムステッピング方式に基づくサロゲートモデルを構築するための体系的戦略を提案する。
GNNは,計算効率と新たなシナリオへの一般化の観点から,従来の代理モデルに代わる有効な代替手段を提供することができることを示す。
論文 参考訳(メタデータ) (2023-08-03T08:14:28Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations [44.89798007370551]
本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
論文 参考訳(メタデータ) (2022-03-02T19:09:52Z) - Supervised DKRC with Images for Offline System Identification [77.34726150561087]
現代の力学系はますます非線形で複雑なものになりつつある。
予測と制御のためのコンパクトで包括的な表現でこれらのシステムをモデル化するフレームワークが必要である。
本手法は,教師付き学習手法を用いてこれらの基礎関数を学習する。
論文 参考訳(メタデータ) (2021-09-06T04:39:06Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。