論文の概要: On Error Correction Neural Networks for Economic Forecasting
- arxiv url: http://arxiv.org/abs/2004.05277v2
- Date: Mon, 1 Jun 2020 17:21:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 10:16:36.140563
- Title: On Error Correction Neural Networks for Economic Forecasting
- Title(参考訳): 経済予測のための誤り補正ニューラルネットワークについて
- Authors: Mhlasakululeka Mvubu, Emmanuel Kabuga, Christian Plitz, Bubacarr Bah,
Ronnie Becker, Hans Georg Zimmermann
- Abstract要約: Error Correction Neural Networks (ECNN)と呼ばれるRNNのクラスは、入力変数の不足を補うために設計された。
これは、前のステップで犯したエラーを現在のステップにフィードバックすることで実現します。
ECNNは適切な勾配の計算によってPythonで実装され、株式市場の予測に基づいてテストされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent neural networks (RNNs) are more suitable for learning non-linear
dependencies in dynamical systems from observed time series data. In practice
all the external variables driving such systems are not known a priori,
especially in economical forecasting. A class of RNNs called Error Correction
Neural Networks (ECNNs) was designed to compensate for missing input variables.
It does this by feeding back in the current step the error made in the previous
step. The ECNN is implemented in Python by the computation of the appropriate
gradients and it is tested on stock market predictions. As expected it out
performed the simple RNN and LSTM and other hybrid models which involve a
de-noising pre-processing step. The intuition for the latter is that de-noising
may lead to loss of information.
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)は、観測時系列データから動的システムの非線形依存を学習するのにより適している。
実際には、これらのシステムを駆動する全ての外部変数は、特に経済予測において、優先順位が分かっていない。
Error Correction Neural Networks (ECNN)と呼ばれるRNNのクラスは、入力変数の不足を補うために設計された。
これは、前のステップのエラーを現在のステップに戻すことで実現します。
ECNNは適切な勾配の計算によってPythonで実装され、株式市場の予測に基づいてテストされる。
予想通り、単純な RNN や LSTM などのハイブリッドモデルを実行し、前処理のノイズを減らした。
後者の直感では、ノイズの除去は情報の喪失につながる可能性がある。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Knowing When to Stop: Delay-Adaptive Spiking Neural Network Classifiers with Reliability Guarantees [36.14499894307206]
スパイキングニューラルネットワーク(SNN)は、内部イベント駆動型ニューラルネットワークを通じて時系列データを処理する。
本稿では,入力依存停止時に発生する決定に対して,信頼性を保証する新しい遅延適応型SNNベースの推論手法を提案する。
論文 参考訳(メタデータ) (2023-05-18T22:11:04Z) - Certified machine learning: A posteriori error estimation for
physics-informed neural networks [0.0]
PINNは、より小さなトレーニングセットに対して堅牢であることが知られ、より優れた一般化問題を導出し、より高速にトレーニングすることができる。
純粋にデータ駆動型ニューラルネットワークと比較してPINNを使うことは、トレーニング性能に好都合であるだけでなく、近似されたソリューションの品質に関する重要な情報を抽出できることを示す。
論文 参考訳(メタデータ) (2022-03-31T14:23:04Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Handling Missing Observations with an RNN-based Prediction-Update Cycle [10.478312054103975]
追跡などのタスクでは、時系列データは必然的に観察を欠いている。
本稿では,動作状態推定のための全時間フィルタリングサイクルを提供するRNNベースのアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-22T11:55:10Z) - Auditory Attention Decoding from EEG using Convolutional Recurrent
Neural Network [20.37214453938965]
聴覚注意復号(aad)アプローチは,マルチトーカーシナリオにおいて参加者のアイデンティティを判定するために提案されている。
近年,この問題を解決するためにディープニューラルネットワーク(DNN)に基づくモデルが提案されている。
本論文では,新しい畳み込み型リカレントニューラルネットワーク(CRNN)に基づく回帰モデルと分類モデルを提案する。
論文 参考訳(メタデータ) (2021-03-03T05:09:40Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。