論文の概要: Parameter Estimation of Long Memory Stochastic Processes with Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2410.03776v1
- Date: Thu, 3 Oct 2024 03:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 16:30:33.255534
- Title: Parameter Estimation of Long Memory Stochastic Processes with Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークを用いた長期記憶確率過程のパラメータ推定
- Authors: Bálint Csanády, Lóránt Nagy, Dániel Boros, Iván Ivkovic, Dávid Kovács, Dalma Tóth-Lakits, László Márkus, András Lukács,
- Abstract要約: 時系列モデルの長いメモリパラメータを推定するために,純粋にディープなニューラルネットワークに基づくアプローチを提案する。
ハースト指数のようなパラメータは、プロセスの長距離依存、粗さ、自己相似性を特徴づけるのに重要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a purely deep neural network-based approach for estimating long memory parameters of time series models that incorporate the phenomenon of long-range dependence. Parameters, such as the Hurst exponent, are critical in characterizing the long-range dependence, roughness, and self-similarity of stochastic processes. The accurate and fast estimation of these parameters holds significant importance across various scientific disciplines, including finance, physics, and engineering. We harnessed efficient process generators to provide high-quality synthetic training data, enabling the training of scale-invariant 1D Convolutional Neural Networks (CNNs) and Long Short-Term Memory (LSTM) models. Our neural models outperform conventional statistical methods, even those augmented with neural networks. The precision, speed, consistency, and robustness of our estimators are demonstrated through experiments involving fractional Brownian motion (fBm), the Autoregressive Fractionally Integrated Moving Average (ARFIMA) process, and the fractional Ornstein-Uhlenbeck (fOU) process. We believe that our work will inspire further research in the field of stochastic process modeling and parameter estimation using deep learning techniques.
- Abstract(参考訳): 本稿では,長距離依存現象を含む時系列モデルの長期記憶パラメータを推定するための,純粋に深いニューラルネットワークに基づくアプローチを提案する。
ハースト指数のようなパラメータは、確率過程の長距離依存、粗さ、自己相似性を特徴づけるのに重要である。
これらのパラメータの正確かつ迅速な推定は、金融、物理学、工学など、様々な科学分野において重要な意味を持つ。
我々は、効率的なプロセスジェネレータを使用して高品質な合成トレーニングデータを提供し、スケール不変な1D畳み込みニューラルネットワーク(CNN)モデルとLong Short-Term Memory(LSTM)モデルのトレーニングを可能にした。
私たちのニューラルモデルは、ニューラルネットワークで強化されたものでさえ、従来の統計手法よりも優れています。
推定器の精度、速度、一貫性、頑健性は、分数的ブラウン運動(fBm)、自己回帰的分数的統合的移動平均過程(ARFIMA)、分数的オルンシュタイン-ウレンベック過程(fOU)を含む実験によって実証される。
我々は,本研究が,深層学習技術を用いた確率的プロセスモデリングとパラメータ推定の分野におけるさらなる研究を促すと信じている。
関連論文リスト
- Deep learning the Hurst parameter of linear fractional processes and
assessing its reliability [0.0]
この研究は、分数的ブラウン運動(fBm)、分数的オルンシュタイン-ウレンベック過程(fOU)、線形分数的安定運動(lfsm)の3種類のプロセスに焦点を当てている。
この作業では、fBmとfOUのための広範なデータセットを高速に生成し、LSTMネットワークを大量のデータを実行可能な時間でトレーニングする。
LSTMはfBm法やfOU法では従来の統計手法よりも優れているが、lfsm法では精度が限られている。
論文 参考訳(メタデータ) (2024-01-03T15:42:45Z) - Robust Neural Pruning with Gradient Sampling Optimization for Residual Neural Networks [0.0]
この研究は、勾配サンプリング最適化技術、特にStochGradAdamをニューラルネットワークのプルーニングプロセスに統合するパイオニアとなる。
我々の主な目的は、資源制約のあるシナリオにおいて重要なプルーニングニューラルネットワークモデルの精度を維持するという重要な課題に対処することである。
論文 参考訳(メタデータ) (2023-12-26T12:19:22Z) - Deep Learning for Fast Inference of Mechanistic Models' Parameters [0.28675177318965045]
本稿では,観測対象の力学モデルのパラメータを直接予測するために,ディープニューラルネットワーク(NN)を提案する。
本稿では,ニューラルネットワークとメカニスティックモデルを組み合わせたトレーニング手法を検討する。
ニューラルネットワークの推定値は、さらなる適合によってわずかに改善されているのに対して、これらの推定は、適合手順単独よりも測定精度が良いことがわかった。
論文 参考訳(メタデータ) (2023-12-05T22:16:54Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Neural parameter calibration for large-scale multi-agent models [0.7734726150561089]
本稿では,ニューラルネットワークを用いてパラメータの精度の高い確率密度を求める手法を提案する。
2つの組み合わせは、非常に大きなシステムであっても、モデルパラメータの密度を素早く見積もることができる強力なツールを作成する。
論文 参考訳(メタデータ) (2022-09-27T17:36:26Z) - Multi-fidelity Hierarchical Neural Processes [79.0284780825048]
多要素代理モデリングは、異なるシミュレーション出力を融合させることで計算コストを削減する。
本稿では,多階層型階層型ニューラルネットワーク(MF-HNP)を提案する。
疫学および気候モデリングタスクにおけるMF-HNPの評価を行い、精度と不確実性評価の観点から競合性能を達成した。
論文 参考訳(メタデータ) (2022-06-10T04:54:13Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Large-scale Neural Solvers for Partial Differential Equations [48.7576911714538]
偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
最近の数値解法では、基礎となる方程式を手動で離散化するだけでなく、分散コンピューティングのための高度で調整されたコードも必要である。
偏微分方程式, 物理インフォームドニューラルネットワーク(PINN)に対する連続メッシュフリーニューラルネットワークの適用性について検討する。
本稿では,解析解に関するGatedPINNの精度と,スペクトル解法などの最先端数値解法について論じる。
論文 参考訳(メタデータ) (2020-09-08T13:26:51Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z) - Automated Deep Abstractions for Stochastic Chemical Reaction Networks [0.0]
低レベル化学反応ネットワーク(CRN)モデルは高次元連続時間マルコフ連鎖(CTMC)を生じさせる
最近提案された抽象化手法では,このCTMCを離散時間連続空間プロセスに置き換えるためにディープラーニングを用いる。
本稿では、最適なニューラルネットワークアーキテクチャを学習することで、CRNの深い抽象化をさらに自動化することを提案する。
論文 参考訳(メタデータ) (2020-01-30T13:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。