論文の概要: Explicit construction of recurrent neural networks effectively approximating discrete dynamical systems
- arxiv url: http://arxiv.org/abs/2409.19278v1
- Date: Sat, 28 Sep 2024 07:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 00:08:33.411539
- Title: Explicit construction of recurrent neural networks effectively approximating discrete dynamical systems
- Title(参考訳): 離散力学系を効果的に近似するリカレントニューラルネットワークの明示的構築
- Authors: Chikara Nakayama, Tsuyoshi Yoneda,
- Abstract要約: 我々は、再帰性を持つ力学系に由来する任意の有界離散時系列を考える。
我々は、対応する離散力学系を効果的に近似する、リカレントニューラルネットワークの明示的な構築を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider arbitrary bounded discrete time series originating from dynamical system with recursivity. More precisely, we provide an explicit construction of recurrent neural networks which effectively approximate the corresponding discrete dynamical systems.
- Abstract(参考訳): 我々は、再帰性を持つ力学系に由来する任意の有界離散時系列を考える。
より正確には、対応する離散力学系を効果的に近似する、リカレントニューラルネットワークの明示的な構築を提供する。
関連論文リスト
- Neural Symbolic Regression of Complex Network Dynamics [28.356824329954495]
そこで本研究では,物理インスパイアされたニューラルダイナミクス回帰(PI-NDSR)を用いて,力学の記号表現を自動的に学習する手法を提案する。
本手法は, 種々のダイナミックスから生成された合成データセットと, 病気の拡散に関する実際のデータセットについて検討する。
論文 参考訳(メタデータ) (2024-10-15T02:02:30Z) - Systematic construction of continuous-time neural networks for linear dynamical systems [0.0]
本稿では,動的システムのサブクラスをモデル化するためのニューラルネットワーク構築の体系的アプローチについて論じる。
我々は、各ニューロンの出力が1次または2次常微分方程式(ODE)の解として連続的に進化する連続時間ニューラルネットワークの変種を用いる。
データからネットワークアーキテクチャとパラメータを導出する代わりに、所定のLTIシステムから直接スパースアーキテクチャとネットワークパラメータを計算するための勾配のないアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-24T16:16:41Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - Recurrent Neural Networks for Dynamical Systems: Applications to
Ordinary Differential Equations, Collective Motion, and Hydrological Modeling [0.20999222360659606]
各タスクでRNNを個別に訓練・テストし、動的システムの力学を再現・予測するためのRNNの広範な適用性を実証する。
誤差定式化によるシステムに対する正しいロレンツ解の再構成、破損した集合運動の再構築、軌道、スパイクを有するストリームフロー時系列の予測という3つのタスクに適用されたRNNの性能を分析した。
論文 参考訳(メタデータ) (2022-02-14T20:34:49Z) - Reconstructing a dynamical system and forecasting time series by
self-consistent deep learning [4.947248396489835]
ノイズの多い決定論的時系列に自己一貫性のあるディープラーニングフレームワークを導入する。
教師なしフィルタリング、状態空間再構成、基礎となる微分方程式の同定、予測を提供する。
論文 参考訳(メタデータ) (2021-08-04T06:10:58Z) - Spatio-Temporal Activation Function To Map Complex Dynamical Systems [0.0]
リカレントニューラルネットワークのサブセットであるReservoir Computingは、複雑な力学系をシミュレートするために積極的に使用されている。
時間項を含めることで、アクティベーション関数の基本的な性質が変化し、時系列データの複雑なダイナミクスを捉えることができる。
論文 参考訳(メタデータ) (2020-09-06T23:08:25Z) - Continuous-in-Depth Neural Networks [107.47887213490134]
まず最初に、このリッチな意味では、ResNetsは意味のある動的でないことを示します。
次に、ニューラルネットワークモデルが連続力学系を表現することを実証する。
ResNetアーキテクチャの詳細な一般化としてContinuousNetを紹介します。
論文 参考訳(メタデータ) (2020-08-05T22:54:09Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。