論文の概要: Theoretical analysis of deep neural networks for temporally dependent
observations
- arxiv url: http://arxiv.org/abs/2210.11530v1
- Date: Thu, 20 Oct 2022 18:56:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 13:49:59.044560
- Title: Theoretical analysis of deep neural networks for temporally dependent
observations
- Title(参考訳): 時間依存観測のためのディープニューラルネットワークの理論的解析
- Authors: Mingliang Ma, Abolfazl Safikhani
- Abstract要約: 非線形時系列データのモデリングにおけるディープニューラルネットワークの理論的性質について検討する。
結果は、様々な数値シミュレーション設定とマクロ経済データセットへの応用を通してサポートされる。
- 参考スコア(独自算出の注目度): 1.6752182911522522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are powerful tools to model observations over time with
non-linear patterns. Despite the widespread use of neural networks in such
settings, most theoretical developments of deep neural networks are under the
assumption of independent observations, and theoretical results for temporally
dependent observations are scarce. To bridge this gap, we study theoretical
properties of deep neural networks on modeling non-linear time series data.
Specifically, non-asymptotic bounds for prediction error of (sparse)
feed-forward neural network with ReLU activation function is established under
mixing-type assumptions. These assumptions are mild such that they include a
wide range of time series models including auto-regressive models. Compared to
independent observations, established convergence rates have additional
logarithmic factors to compensate for additional complexity due to dependence
among data points. The theoretical results are supported via various numerical
simulation settings as well as an application to a macroeconomic data set.
- Abstract(参考訳): ディープニューラルネットワークは、非線形パターンによる観測を時間とともにモデル化する強力なツールである。
このような環境ではニューラルネットワークが広く使われているが、ディープニューラルネットワークの理論的な発展のほとんどは独立した観測の仮定下にあり、時間依存観測の理論的結果はほとんどない。
このギャップを埋めるために,非線形時系列データのモデル化におけるディープニューラルネットワークの理論的性質について検討する。
具体的には、ReLUアクティベーション機能付きフィードフォワードニューラルネットワークの予測誤差の非漸近境界を混合型仮定の下で確立する。
これらの仮定は軽度であり、自動回帰モデルを含む幅広い時系列モデルを含んでいる。
独立した観測と比較すると、確立された収束速度は、データポイント間の依存による追加の複雑さを補うために追加の対数係数を持つ。
理論結果は、様々な数値シミュレーション設定およびマクロ経済データセットへの応用を通して支持される。
関連論文リスト
- Hybridization of Persistent Homology with Neural Networks for Time-Series Prediction: A Case Study in Wave Height [0.0]
本稿では,ニューラルネットワークモデルの予測性能を向上させる機能工学手法を提案する。
具体的には、計算トポロジ手法を利用して、入力データから貴重なトポロジ的特徴を導出する。
タイムアヘッド予測では、FNN、RNN、LSTM、GRUモデルにおいて、R2$スコアの強化が重要だった。
論文 参考訳(メタデータ) (2024-09-03T01:26:21Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - A predictive physics-aware hybrid reduced order model for reacting flows [65.73506571113623]
反応流問題の解法として,新しいハイブリッド型予測次数モデル (ROM) を提案する。
自由度は、数千の時間的点から、対応する時間的係数を持ついくつかのPODモードへと減少する。
時間係数を予測するために、2つの異なるディープラーニングアーキテクチャがテストされている。
論文 参考訳(メタデータ) (2023-01-24T08:39:20Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - An advanced spatio-temporal convolutional recurrent neural network for
storm surge predictions [73.4962254843935]
本研究では, 人工ニューラルネットワークモデルを用いて, 嵐の軌跡/規模/強度履歴に基づいて, 強風をエミュレートする能力について検討する。
本研究では, 人工嵐シミュレーションのデータベースを用いて, 強風を予測できるニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-04-18T23:42:18Z) - Probabilistic AutoRegressive Neural Networks for Accurate Long-range
Forecasting [6.295157260756792]
確率的自己回帰ニューラルネットワーク(PARNN)について紹介する。
PARNNは、非定常性、非線形性、非調和性、長距離依存、カオスパターンを示す複雑な時系列データを扱うことができる。
本研究では,Transformers,NBeats,DeepARなどの標準統計モデル,機械学習モデル,ディープラーニングモデルに対して,PARNNの性能を評価する。
論文 参考訳(メタデータ) (2022-04-01T17:57:36Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - Perceptron Theory Can Predict the Accuracy of Neural Networks [6.136302173351179]
多層ニューラルネットワークは、多くの技術的分類問題に対する技術の現状を定めている。
しかし、これらのネットワークは基本的にはブラックボックスであり、分析してパフォーマンスを予測する。
本稿では, 1層パーセプトロンの統計的理論を開発し, 驚くほど多種多様なニューラルネットワークの性能を予測できることを示す。
論文 参考訳(メタデータ) (2020-12-14T19:02:26Z) - Parameter Estimation with Dense and Convolutional Neural Networks
Applied to the FitzHugh-Nagumo ODE [0.0]
密度層と畳み込み層を用いた深層ニューラルネットワークを逆問題として提示し,Fitz-Nagumoモデルのパラメータを推定する。
深層ニューラルネットワークは、動的モデルやプロセスにおけるパラメータを推定する可能性があり、フレームワークのパラメータを正確に予測することができることを実証する。
論文 参考訳(メタデータ) (2020-12-12T01:20:42Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。