論文の概要: Economic Nowcasting with Long Short-Term Memory Artificial Neural
Networks (LSTM)
- arxiv url: http://arxiv.org/abs/2106.08901v1
- Date: Tue, 15 Jun 2021 13:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 12:28:16.350689
- Title: Economic Nowcasting with Long Short-Term Memory Artificial Neural
Networks (LSTM)
- Title(参考訳): 長期記憶型ニューラルネットワーク(LSTM)による経済情報発信
- Authors: Daniel Hopp
- Abstract要約: 人工知能ニューラルネットワーク(ANN)は、様々な分野や分野において多くの進歩の触媒となっている。
長期記憶ネットワーク(LSTM)の一種であるANNは、特に経済的な時系列を扱うのに適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial neural networks (ANNs) have been the catalyst to numerous advances
in a variety of fields and disciplines in recent years. Their impact on
economics, however, has been comparatively muted. One type of ANN, the long
short-term memory network (LSTM), is particularly wellsuited to deal with
economic time-series. Here, the architecture's performance and characteristics
are evaluated in comparison with the dynamic factor model (DFM), currently a
popular choice in the field of economic nowcasting. LSTMs are found to produce
superior results to DFMs in the nowcasting of three separate variables; global
merchandise export values and volumes, and global services exports. Further
advantages include their ability to handle large numbers of input features in a
variety of time frequencies. A disadvantage is the inability to ascribe
contributions of input features to model outputs, common to all ANNs. In order
to facilitate continued applied research of the methodology by avoiding the
need for any knowledge of deep-learning libraries, an accompanying Python
library was developed using PyTorch, https://pypi.org/project/nowcast-lstm/.
- Abstract(参考訳): 人工ニューラルネットワーク(ANN)は、近年、様々な分野や分野において多くの進歩の触媒となっている。
しかし、経済への影響は相対的に小さかった。
長期記憶ネットワーク(LSTM)の一種であるANNは、特に経済的な時系列を扱うのに適している。
ここで、アーキテクチャの性能と特性は、現在経済の現在キャスティングの分野で人気のあるdynamic factor model(dfm)と比較して評価される。
LSTMは3つの異なる変数、グローバルな輸出価値とボリューム、グローバルなサービス輸出の計上において、DFMよりも優れた結果をもたらす。
その他の利点は、様々な時間周波数で多数の入力特徴を処理できることである。
欠点は、すべてのannに共通する、入力機能のモデル出力への寄与を記述できないことである。
PyTorch, https://pypi.org/project/nowcast-lstm/を使って,ディープラーニングライブラリの知識を必要とせずに,方法論の継続的な応用研究を容易にするために,付属するPythonライブラリを開発した。
関連論文リスト
- Discovering Long-Term Effects on Parameter Efficient Fine-tuning [36.83255498301937]
事前訓練されたニューラルネットワーク(Annns)は、堅牢なパターン認識機能を示す。
アンとBNNはヒト脳、特にBNNと大きな類似点を共有している
アンは微調整によって新しい知識を得ることができる。
論文 参考訳(メタデータ) (2024-08-24T03:27:29Z) - Great Memory, Shallow Reasoning: Limits of $k$NN-LMs [71.73611113995143]
検索とnext-word予測を統合した$k$NN-LMsは、言語モデリングにおいて強力な性能を示している。
この改良された情報リコール能力が、本当に下流の能力に変換されるかどうかを問う。
論文 参考訳(メタデータ) (2024-08-21T17:59:05Z) - Comparison of algorithms in Foreign Exchange Rate Prediction [0.0]
本稿では,3大通貨であるユーロ,パウンド・スターリング,USドルに対するネパール・ルピー間の予測モデルを開発する。
Feed forward Neural Network、Simple Recurrent Neural Network (SRNN)、Gated Recurrent Unit (GRU)、Long Short Term Memory (LSTM)といった異なるANNアーキテクチャモデルが使用された。
本研究では,LSTM ネットワークが SRNN や GRU ネットワークよりも優れた結果を示した。
論文 参考訳(メタデータ) (2024-04-06T01:07:38Z) - GDP nowcasting with artificial neural networks: How much does long-term
memory matter? [0.0]
人工ニューラルネットワークを応用し、米国経済の四半期GDPの伸びを予測した。
より長い入力シーケンスは、バランスの取れた経済成長の期間において、より正確な現在の流れをもたらすことが分かっています。
本稿では,1D CNNの経済再生への応用を提案する。
論文 参考訳(メタデータ) (2023-04-12T12:29:58Z) - Financial Time Series Forecasting using CNN and Transformer [16.57996422431636]
本稿では,CNN と Transformer のパワーを活用し,時系列内の短期的および長期的依存関係をモデル化する。
本実験では, 統計的・深層学習法と比較し, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-04-11T00:56:57Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Performance of long short-term memory artificial neural networks in
nowcasting during the COVID-19 crisis [0.0]
COVID-19パンデミックにおけるLSTMのパフォーマンスは、動的因子モデル(DFM)と比較して比較される。
平均絶対誤差と根平均二乗誤差の両方の観点から、LSTMは変数/四分法の組み合わせの3分の2でより良い性能を得た。
LSTMへの解釈可能性の方法論が紹介され、付随する nowcast_lstm Python ライブラリで利用可能になった。
論文 参考訳(メタデータ) (2022-03-22T16:48:41Z) - Multi-timescale Representation Learning in LSTM Language Models [69.98840820213937]
言語モデルは、非常に短いから非常に長いまでの時間スケールで単語間の統計的依存関係を捉えなければならない。
我々は、長期記憶言語モデルにおけるメモリゲーティング機構が、パワーローの減衰を捉えることができるかの理論を導出した。
実験の結果,自然言語で学習したLSTM言語モデルは,この理論分布を近似することがわかった。
論文 参考訳(メタデータ) (2020-09-27T02:13:38Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z) - Recognizing Long Grammatical Sequences Using Recurrent Networks
Augmented With An External Differentiable Stack [73.48927855855219]
リカレントニューラルネットワーク(RNN)は、シーケンスモデリング、生成、予測に広く使われているディープアーキテクチャである。
RNNは、非常に長いシーケンスに対してあまり一般化せず、多くの重要な時間的処理や時系列予測問題に適用性を制限する。
これらの欠点に対処する方法の1つは、スタックのような外部の異なるメモリ構造とRNNを結合することである。
本稿では,重要なアーキテクチャと状態更新機構を備えたメモリ拡張RNNを改良する。
論文 参考訳(メタデータ) (2020-04-04T14:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。