論文の概要: GDP nowcasting with artificial neural networks: How much does long-term
memory matter?
- arxiv url: http://arxiv.org/abs/2304.05805v1
- Date: Wed, 12 Apr 2023 12:29:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:10:56.750252
- Title: GDP nowcasting with artificial neural networks: How much does long-term
memory matter?
- Title(参考訳): 人工ニューラルネットワークによるGDPの今 : 長期記憶はどれくらい重要か?
- Authors: Krist\'of N\'emeth, D\'aniel Hadh\'azi
- Abstract要約: 我々は、米国経済の四半期GDP成長を予測するために、異なる統計モデルを適用します。
動的因子モデル(DFM)と4つの人工ニューラルネットワーク(ANN)の流し込み性能の比較を行った。
その結果, 同一パラメータの1次元CNNは, 両評価期間において, 正確な流れを生成できることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In our study, we apply different statistical models to nowcast quarterly GDP
growth for the US economy. Using the monthly FRED-MD database, we compare the
nowcasting performance of the dynamic factor model (DFM) and four artificial
neural networks (ANNs): the multilayer perceptron (MLP), the one-dimensional
convolutional neural network (1D CNN), the long short-term memory network
(LSTM), and the gated recurrent unit (GRU). The empirical analysis presents the
results from two distinctively different evaluation periods. The first (2010:Q1
-- 2019:Q4) is characterized by balanced economic growth, while the second
(2010:Q1 -- 2022:Q3) also includes periods of the COVID-19 recession. According
to our results, longer input sequences result in more accurate nowcasts in
periods of balanced economic growth. However, this effect ceases above a
relatively low threshold value of around six quarters (eighteen months). During
periods of economic turbulence (e.g., during the COVID-19 recession), longer
training sequences do not help the models' predictive performance; instead,
they seem to weaken their generalization capability. Our results show that 1D
CNN, with the same parameters, generates accurate nowcasts in both of our
evaluation periods. Consequently, first in the literature, we propose the use
of this specific neural network architecture for economic nowcasting.
- Abstract(参考訳): 本研究は,米国経済の四半期gdp成長率の予測に異なる統計モデルを適用した。
月次FRED-MDデータベースを用いて,マルチ層パーセプトロン(MLP),1次元畳み込みニューラルネットワーク(CNN),長短期記憶ネットワーク(LSTM),ゲートリカレントユニット(GRU)という,動的因子モデル(DFM)と4つの人工ニューラルネットワーク(ANN)の流速特性を比較した。
経験分析は、2つの異なる評価期間の結果を提示する。
第1期(2010:q1 -- 2019:q4)はバランスの取れた経済成長を特徴とし、第2期(2010:q1 -- 2022:q3)は新型コロナウイルスの景気後退の時期を含む。
以上の結果から、より長い入力シーケンスは、バランスの取れた経済成長の期間において、より正確な結果をもたらす。
しかし、この効果は比較的低いしきい値である約6/4(18ヶ月)以上で停止する。
経済的な混乱(例:covid-19の景気後退)の間、長い訓練シーケンスはモデルの予測性能に役立たず、その代わりに一般化能力を弱めているように見える。
その結果, 同一パラメータの1次元CNNは, 両評価期間において, 正確な現在放送を生成することがわかった。
そこで本研究では,まず,このニューラルネットワークアーキテクチャを経済的な流れに利用することを提案する。
関連論文リスト
- Direct Training Needs Regularisation: Anytime Optimal Inference Spiking Neural Network [23.434563009813218]
スパイキングニューラルネットワーク(SNN)は,次世代のニューラルネットワーク(ANN)として認識される
空間時間正規化(STR)と呼ばれる新しい正規化手法を導入する。
STRは各段階におけるスパイクの強さと膜電位の比を調節する。
これは、トレーニング中の空間的および時間的パフォーマンスを効果的にバランスさせ、最終的にはAnytime Optimal Inference (AOI) SNNとなる。
論文 参考訳(メタデータ) (2024-04-15T15:57:01Z) - On the Computational Complexity and Formal Hierarchy of Second Order
Recurrent Neural Networks [59.85314067235965]
2次次リカレントネットワーク(RNN)の理論基盤を拡大する(2次RNN)
有界時間でチューリング完備な RNN のクラスが存在することを証明している。
また、記憶のない2ドルのRNNは、バニラRNNのような現代のモデルよりも優れており、正規文法の認識において繰り返し単位をゲートしていることを示す。
論文 参考訳(メタデータ) (2023-09-26T06:06:47Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - SEENN: Towards Temporal Spiking Early-Exit Neural Networks [26.405775809170308]
スパイキングニューラルネットワーク(SNN)は、最近、従来のニューラルネットワーク(ANN)の生物学的にもっともらしい代替品として人気が高まっている。
本研究では,SNNにおける時間経過の微調整について検討する。
時間ステップ数を動的に調整することにより、SEENNは推論中の平均時間ステップ数を著しく削減する。
論文 参考訳(メタデータ) (2023-04-02T15:57:09Z) - A Hybrid ANN-SNN Architecture for Low-Power and Low-Latency Visual Perception [27.144985031646932]
Spiking Neural Networks(SNN)は、バイオインスパイアされたニューラルネットワークの一種で、エッジデバイスに低消費電力で低レイテンシな推論をもたらすことを約束する。
イベントベース2Dおよび3Dヒューマンポーズ推定の課題について,本手法では,ANNに比べて性能を4%低下させることなく,88%の消費電力を消費することを示した。
論文 参考訳(メタデータ) (2023-03-24T17:38:45Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - MS-RNN: A Flexible Multi-Scale Framework for Spatiotemporal Predictive
Learning [7.311071760653835]
予測学習のための最近のRNNモデルを強化するために,Multi-Scale RNN (MS-RNN) という汎用フレームワークを提案する。
我々はMS-RNNフレームワークを理論解析と徹底的な実験により検証する。
その結果、我々のフレームワークを組み込んだRNNモデルは、メモリコストが大幅に削減されるが、以前よりも性能が向上していることがわかった。
論文 参考訳(メタデータ) (2022-06-07T04:57:58Z) - Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer [77.78479877473899]
我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
論文 参考訳(メタデータ) (2021-12-12T17:13:14Z) - Economic Nowcasting with Long Short-Term Memory Artificial Neural
Networks (LSTM) [0.0]
人工知能ニューラルネットワーク(ANN)は、様々な分野や分野において多くの進歩の触媒となっている。
長期記憶ネットワーク(LSTM)の一種であるANNは、特に経済的な時系列を扱うのに適している。
論文 参考訳(メタデータ) (2021-06-15T13:32:06Z) - Accuracy Prediction with Non-neural Model for Neural Architecture Search [185.0651567642238]
精度予測に非神経モデルを用いる別の手法について検討する。
我々は、ニューラルネットワーク探索(NAS)の予測因子として、勾配向上決定木(GBDT)を活用する。
NASBench-101とImageNetの実験は、NASの予測器としてGBDTを使用することの有効性を示した。
論文 参考訳(メタデータ) (2020-07-09T13:28:49Z) - Neural Networks and Value at Risk [59.85784504799224]
リスクしきい値推定における資産価値のモンテカルロシミュレーションを行う。
株式市場と長期債を試験資産として利用し、ニューラルネットワークについて検討する。
はるかに少ないデータでフィードされたネットワークは、大幅にパフォーマンスが悪くなっています。
論文 参考訳(メタデータ) (2020-05-04T17:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。