論文の概要: Latent Dynamics Networks (LDNets): learning the intrinsic dynamics of
spatio-temporal processes
- arxiv url: http://arxiv.org/abs/2305.00094v1
- Date: Fri, 28 Apr 2023 21:11:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 17:07:31.830565
- Title: Latent Dynamics Networks (LDNets): learning the intrinsic dynamics of
spatio-temporal processes
- Title(参考訳): 潜在ダイナミクスネットワーク(LDNets):時空間過程の固有ダイナミクスの学習
- Authors: Francesco Regazzoni and Stefano Pagani and Matteo Salvador and Luca
Dede' and Alfio Quarteroni
- Abstract要約: ラテント・ダイナミクス・ネットワーク(LDNet)は、非マルコフ力学系の低次元固有力学を発見できる。
LDNetは軽量で訓練が容易で、時間外挿方式でも精度と一般化性に優れている。
- 参考スコア(独自算出の注目度): 2.3694122563610924
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting the evolution of systems that exhibit spatio-temporal dynamics in
response to external stimuli is a key enabling technology fostering scientific
innovation. Traditional equations-based approaches leverage first principles to
yield predictions through the numerical approximation of high-dimensional
systems of differential equations, thus calling for large-scale parallel
computing platforms and requiring large computational costs. Data-driven
approaches, instead, enable the description of systems evolution in
low-dimensional latent spaces, by leveraging dimensionality reduction and deep
learning algorithms. We propose a novel architecture, named Latent Dynamics
Network (LDNet), which is able to discover low-dimensional intrinsic dynamics
of possibly non-Markovian dynamical systems, thus predicting the time evolution
of space-dependent fields in response to external inputs. Unlike popular
approaches, in which the latent representation of the solution manifold is
learned by means of auto-encoders that map a high-dimensional discretization of
the system state into itself, LDNets automatically discover a low-dimensional
manifold while learning the latent dynamics, without ever operating in the
high-dimensional space. Furthermore, LDNets are meshless algorithms that do not
reconstruct the output on a predetermined grid of points, but rather at any
point of the domain, thus enabling weight-sharing across query-points. These
features make LDNets lightweight and easy-to-train, with excellent accuracy and
generalization properties, even in time-extrapolation regimes. We validate our
method on several test cases and we show that, for a challenging
highly-nonlinear problem, LDNets outperform state-of-the-art methods in terms
of accuracy (normalized error 5 times smaller), by employing a dramatically
smaller number of trainable parameters (more than 10 times fewer).
- Abstract(参考訳): 外部刺激に応答して時空間ダイナミクスを示すシステムの進化を予測することは、科学的イノベーションを促進する技術を実現する鍵となる。
従来の方程式に基づくアプローチでは、微分方程式の高次元系の数値近似を通じて予測を導出するために第一原理を利用する。
データ駆動アプローチは、次元の縮小とディープラーニングアルゴリズムを活用することで、低次元の潜在空間におけるシステム進化の記述を可能にする。
本研究では,非マルコフ力学系の低次元固有力学を探索し,外部入力に応答して空間依存場の時間発展を予測できる,ultnt dynamics network (ldnet) という新しいアーキテクチャを提案する。
システム状態の高次元離散化を自身にマッピングするオートエンコーダによって解多様体の潜在表現を学習する一般的なアプローチとは異なり、ldnetsは高次元空間で操作することなく、潜在力学を学習しながら自動的に低次元多様体を発見する。
さらにLDNetは、所定の点のグリッド上で出力を再構築するのではなく、ドメインの任意の点において、クエリポイント間の重み共有を可能にするメッシュレスアルゴリズムである。
これらの特徴によりLDNetsは軽量で訓練が容易で、タイムエクストラポレーションでも精度と一般化性に優れている。
提案手法をいくつかのテストケースで検証し,高い非線形問題に対して,LDNetsはトレーニング可能なパラメータを劇的に少なく(10倍以上)、精度(正規化誤差が5倍小さい)で最先端の手法より優れていることを示す。
関連論文リスト
- Model-Based Control with Sparse Neural Dynamics [23.961218902837807]
モデル学習と予測制御を統合した新しいフレームワークを提案する。
我々は,既存の最先端手法よりもクローズドループ性能を向上できることを示す。
論文 参考訳(メタデータ) (2023-12-20T06:25:02Z) - Deep Learning-based surrogate models for parametrized PDEs: handling
geometric variability through graph neural networks [0.0]
本研究では,時間依存型PDEシミュレーションにおけるグラフニューラルネットワーク(GNN)の可能性について検討する。
本稿では,データ駆動型タイムステッピング方式に基づくサロゲートモデルを構築するための体系的戦略を提案する。
GNNは,計算効率と新たなシナリオへの一般化の観点から,従来の代理モデルに代わる有効な代替手段を提供することができることを示す。
論文 参考訳(メタデータ) (2023-08-03T08:14:28Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - LordNet: Learning to Solve Parametric Partial Differential Equations
without Simulated Data [63.55861160124684]
本稿では,離散化されたPDEによって構築された平均2乗残差(MSR)損失から,ニューラルネットワークが直接物理を学習する一般データ自由パラダイムを提案する。
具体的には,低ランク分解ネットワーク(LordNet)を提案する。
Poisson方程式とNavier-Stokes方程式を解く実験は、MSR損失による物理的制約がニューラルネットワークの精度と能力を向上させることを実証している。
論文 参考訳(メタデータ) (2022-06-19T14:41:08Z) - Decomposed Linear Dynamical Systems (dLDS) for learning the latent
components of neural dynamics [6.829711787905569]
本稿では,時系列データの非定常および非線形の複雑なダイナミクスを表現した新しい分解力学系モデルを提案する。
我々のモデルは辞書学習によって訓練され、最近の結果を利用してスパースベクトルを時間とともに追跡する。
連続時間と離散時間の両方の指導例において、我々のモデルは元のシステムによく近似できることを示した。
論文 参考訳(メタデータ) (2022-06-07T02:25:38Z) - Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations [44.89798007370551]
本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
論文 参考訳(メタデータ) (2022-03-02T19:09:52Z) - Supervised DKRC with Images for Offline System Identification [77.34726150561087]
現代の力学系はますます非線形で複雑なものになりつつある。
予測と制御のためのコンパクトで包括的な表現でこれらのシステムをモデル化するフレームワークが必要である。
本手法は,教師付き学習手法を用いてこれらの基礎関数を学習する。
論文 参考訳(メタデータ) (2021-09-06T04:39:06Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - Physical deep learning based on optimal control of dynamical systems [0.0]
本研究では,連続時間力学系の最適制御に基づくパターン認識を行う。
鍵となる例として、光電子遅延システムにダイナミックスに基づく認識アプローチを適用する。
これは、多くの重みパラメータをトレーニングする必要がある従来の多層ニューラルネットワークとは対照的である。
論文 参考訳(メタデータ) (2020-12-16T06:38:01Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。