論文の概要: A Low-complexity Structured Neural Network to Realize States of Dynamical Systems
- arxiv url: http://arxiv.org/abs/2503.23697v1
- Date: Mon, 31 Mar 2025 03:52:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:10.001535
- Title: A Low-complexity Structured Neural Network to Realize States of Dynamical Systems
- Title(参考訳): 動的システムの状態を実現する低複素構造ニューラルネットワーク
- Authors: Hansaka Aluvihare, Levi Lingsch, Xianqi Li, Sirani M. Perera,
- Abstract要約: 本稿では,構造化ニューラルネットワーク(StNN)を用いたデータ駆動学習から動的システムの先進的状態への導出を行う。
ハンケル作用素をベースとしたStNNを用いた力学系の数値シミュレーションを行った。
提案したStNNは,将来状態の予測と理解を可能にする低複雑さ学習により,状態空間の動的システムを実現する方法を示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Data-driven learning is rapidly evolving and places a new perspective on realizing state-space dynamical systems. However, dynamical systems derived from nonlinear ordinary differential equations (ODEs) suffer from limitations in computational efficiency. Thus, this paper stems from data-driven learning to advance states of dynamical systems utilizing a structured neural network (StNN). The proposed learning technique also seeks to identify an optimal, low-complexity operator to solve dynamical systems, the so-called Hankel operator, derived from time-delay measurements. Thus, we utilize the StNN based on the Hankel operator to solve dynamical systems as an alternative to existing data-driven techniques. We show that the proposed StNN reduces the number of parameters and computational complexity compared with the conventional neural networks and also with the classical data-driven techniques, such as Sparse Identification of Nonlinear Dynamics (SINDy) and Hankel Alternative view of Koopman (HAVOK), which is commonly known as delay-Dynamic Mode Decomposition(DMD) or Hankel-DMD. More specifically, we present numerical simulations to solve dynamical systems utilizing the StNN based on the Hankel operator beginning from the fundamental Lotka-Volterra model, where we compare the StNN with the LEarning Across Dynamical Systems (LEADS), and extend our analysis to highly nonlinear and chaotic Lorenz systems, comparing the StNN with conventional neural networks, SINDy, and HAVOK. Hence, we show that the proposed StNN paves the way for realizing state-space dynamical systems with a low-complexity learning algorithm, enabling prediction and understanding of future states.
- Abstract(参考訳): データ駆動学習は急速に進化しており、状態空間の動的システムの実現に新たな視点を置いている。
しかし、非線形常微分方程式(ODE)から導かれる力学系は計算効率の限界に悩まされる。
そこで本論文は,構造化ニューラルネットワーク(StNN)を用いたデータ駆動学習から動的システムの先進的な状態へ移行した。
提案手法は,時間遅延測定から導いたハンケル作用素(Hankel operator)と呼ばれる力学系を解くための,最適で低複雑性演算子を同定する。
そこで我々は,既存のデータ駆動手法の代替として,Hankel演算子をベースとしたStNNを用いて力学系を解く。
提案手法は,従来のニューラルネットワークに比べてパラメータ数や計算複雑性を低減し,非線形ダイナミクスのスパース同定(SINDy)やKoopmanのハンケル代替ビュー(HAVOK)などの古典的データ駆動手法を用いて,遅延動的モード分解(DMD)やHankel-DMD(Hankel-DMD)として知られている。
具体的には,従来のニューラルネットワークであるSINDyとHAVOKと比較して,StNNをLearning Across Dynamical Systems (LEADS)と比較し,非線形でカオスなLorenzシステムに拡張した。
そこで,提案したStNNは,低複素性学習アルゴリズムを用いて状態空間の動的システムを実現する方法を示し,将来の状態の予測と理解を可能にする。
関連論文リスト
- SINDyG: Sparse Identification of Nonlinear Dynamical Systems from Graph-Structured Data [0.27624021966289597]
グラフ構造化データ(SINDyG)から動的システムのスパース同定法を開発した。
SINDyGはネットワーク構造をスパース回帰に組み込んで、基礎となるネットワーク力学を説明するモデルパラメータを識別する。
本実験は, ネットワーク力学の精度向上と簡易性を検証した。
論文 参考訳(メタデータ) (2024-09-02T17:51:37Z) - Systematic construction of continuous-time neural networks for linear dynamical systems [0.0]
本稿では,動的システムのサブクラスをモデル化するためのニューラルネットワーク構築の体系的アプローチについて論じる。
我々は、各ニューロンの出力が1次または2次常微分方程式(ODE)の解として連続的に進化する連続時間ニューラルネットワークの変種を用いる。
データからネットワークアーキテクチャとパラメータを導出する代わりに、所定のLTIシステムから直接スパースアーキテクチャとネットワークパラメータを計算するための勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-24T16:16:41Z) - Latent Dynamics Networks (LDNets): learning the intrinsic dynamics of
spatio-temporal processes [2.3694122563610924]
ラテント・ダイナミクス・ネットワーク(LDNet)は、非マルコフ力学系の低次元固有力学を発見できる。
LDNetは軽量で訓練が容易で、時間外挿方式でも精度と一般化性に優れている。
論文 参考訳(メタデータ) (2023-04-28T21:11:13Z) - ConCerNet: A Contrastive Learning Based Framework for Automated
Conservation Law Discovery and Trustworthy Dynamical System Prediction [82.81767856234956]
本稿では,DNNに基づく動的モデリングの信頼性を向上させるために,ConCerNetという新しい学習フレームワークを提案する。
本手法は, 座標誤差と保存量の両方において, ベースラインニューラルネットワークよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T21:07:30Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Recurrent Neural Networks for Dynamical Systems: Applications to
Ordinary Differential Equations, Collective Motion, and Hydrological Modeling [0.20999222360659606]
各タスクでRNNを個別に訓練・テストし、動的システムの力学を再現・予測するためのRNNの広範な適用性を実証する。
誤差定式化によるシステムに対する正しいロレンツ解の再構成、破損した集合運動の再構築、軌道、スパイクを有するストリームフロー時系列の予測という3つのタスクに適用されたRNNの性能を分析した。
論文 参考訳(メタデータ) (2022-02-14T20:34:49Z) - Constructing Neural Network-Based Models for Simulating Dynamical
Systems [59.0861954179401]
データ駆動モデリングは、真のシステムの観測からシステムの力学の近似を学ぼうとする代替パラダイムである。
本稿では,ニューラルネットワークを用いた動的システムのモデル構築方法について検討する。
基礎的な概要に加えて、関連する文献を概説し、このモデリングパラダイムが克服すべき数値シミュレーションから最も重要な課題を概説する。
論文 参考訳(メタデータ) (2021-11-02T10:51:42Z) - A novel Deep Neural Network architecture for non-linear system
identification [78.69776924618505]
非線形システム識別のための新しいDeep Neural Network (DNN)アーキテクチャを提案する。
メモリシステムにインスパイアされたインダクティブバイアス(アーキテクチャ)と正規化(損失関数)を導入する。
このアーキテクチャは、利用可能なデータのみに基づいて、自動的な複雑性の選択を可能にする。
論文 参考訳(メタデータ) (2021-06-06T10:06:07Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Dynamical Systems: Balancing Structure and Flexibility in
Physical Prediction [14.788494279754481]
各種グレーボックス設定における動的モデルの学習方法であるNeural Dynamical Systems (NDS)を紹介する。
NDSはニューラルネットワークを使用してシステムの自由パラメータを推定し、残余項を予測し、将来状態を予測するために時間とともに数値的に統合する。
論文 参考訳(メタデータ) (2020-06-23T00:50:48Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。