論文の概要: Tensor-Train Recurrent Neural Networks for Interpretable Multi-Way
Financial Forecasting
- arxiv url: http://arxiv.org/abs/2105.04983v1
- Date: Tue, 11 May 2021 12:38:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-12 13:51:53.427324
- Title: Tensor-Train Recurrent Neural Networks for Interpretable Multi-Way
Financial Forecasting
- Title(参考訳): 解釈可能な多方向金融予測のためのテンソルトレインリカレントニューラルネットワーク
- Authors: Yao Lei Xu, Giuseppe G. Calvi, Danilo P. Mandic
- Abstract要約: recurrent neural networks(rnns)は、シーケンスモデリングのためのデファクト標準機械学習ツールである。
TT-RNN(TT-RNN)は、テンソルに固有の圧縮能力を介して、次元の呪いに対処する能力を有する。
TT因子の解析により, テンソル分解の基盤となる物理的意味は, TT-RNNモデルが結果の解釈可能性に役立つことを示す。
- 参考スコア(独自算出の注目度): 24.50116388903113
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent Neural Networks (RNNs) represent the de facto standard machine
learning tool for sequence modelling, owing to their expressive power and
memory. However, when dealing with large dimensional data, the corresponding
exponential increase in the number of parameters imposes a computational
bottleneck. The necessity to equip RNNs with the ability to deal with the curse
of dimensionality, such as through the parameter compression ability inherent
to tensors, has led to the development of the Tensor-Train RNN (TT-RNN).
Despite achieving promising results in many applications, the full potential of
the TT-RNN is yet to be explored in the context of interpretable financial
modelling, a notoriously challenging task characterized by multi-modal data
with low signal-to-noise ratio. To address this issue, we investigate the
potential of TT-RNN in the task of financial forecasting of currencies. We
show, through the analysis of TT-factors, that the physical meaning underlying
tensor decomposition, enables the TT-RNN model to aid the interpretability of
results, thus mitigating the notorious "black-box" issue associated with neural
networks. Furthermore, simulation results highlight the regularization power of
TT decomposition, demonstrating the superior performance of TT-RNN over its
uncompressed RNN counterpart and other tensor forecasting methods.
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)は、表現力とメモリのため、シーケンスモデリングのための事実上の標準機械学習ツールである。
しかし、大規模な次元データを扱う場合、パラメータの数の増加に対応する指数関数的増加は計算ボトルネックを課す。
テンソル・トレイン・RNN(TT-RNN)の開発には,テンソルに固有のパラメータ圧縮能力など,次元の呪いに対処する能力を備える必要がある。
多くのアプリケーションで有望な結果が得られたにもかかわらず、TT-RNNの完全なポテンシャルは、信号対雑音比の低いマルチモーダルデータを特徴とする、解釈可能な金融モデリングの文脈ではまだ検討されていない。
この問題に対処するために、通貨の財務予測におけるTT-RNNの可能性を検討する。
TT因子の解析により, テンソル分解の基盤となる物理的意味は, TT-RNNモデルにより, 結果の解釈可能性に寄与し, ニューラルネットワークに関連する悪名高い「ブラックボックス」問題を緩和できることが示されている。
さらに, TT-RNNの非圧縮RNN法および他のテンソル予測法に比べて, TT-RNNの正則化性能が向上することを示した。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Is Conventional SNN Really Efficient? A Perspective from Network
Quantization [7.04833025737147]
スパイキングニューラルネットワーク(SNN)はその高エネルギー効率と膨大なポテンシャルで広く称賛されている。
しかし、SNNと量子化ニューラルネットワーク(ANN)を批判的に対比し、関連付ける包括的な研究はいまだに残っていない。
本稿では、SNNにおける時間ステップとアクティベーション値の量子化ビット幅が類似表現であることを示す統一的な視点を紹介する。
論文 参考訳(メタデータ) (2023-11-17T09:48:22Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - On Recurrent Neural Networks for learning-based control: recent results
and ideas for future developments [1.1031750359996124]
本稿では、制御設計におけるリカレントニューラルネットワーク(RNN)の可能性について論じ、分析することを目的とする。
RNNの主なファミリーは、Neural AutoRegressive eXo、NNARX、Echo State Networks (ESN)、Long Short Term Memory (LSTM)、Gated Recurrent Units (GRU)である。
論文 参考訳(メタデータ) (2021-11-26T15:52:52Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Block-term Tensor Neural Networks [29.442026567710435]
ブロック終端テンソル層(BT層)は,CNNやRNNなどのニューラルネットワークモデルに容易に適用可能であることを示す。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比を達成することができる。
論文 参考訳(メタデータ) (2020-10-10T09:58:43Z) - A Fully Tensorized Recurrent Neural Network [48.50376453324581]
重み付けされたRNNアーキテクチャを導入し、各リカレントセル内の個別の重み付け行列を共同で符号化する。
このアプローチはモデルのサイズを数桁削減するが、通常のRNNと同等あるいは優れた性能を維持している。
論文 参考訳(メタデータ) (2020-10-08T18:24:12Z) - Recurrent Graph Tensor Networks: A Low-Complexity Framework for
Modelling High-Dimensional Multi-Way Sequence [24.594587557319837]
我々は、リカレントニューラルネットワーク(RNN)における隠れ状態のモデリングを近似するグラフフィルタフレームワークを開発する。
提案するフレームワークは、複数のマルチウェイシーケンスモデリングタスクを通じて検証され、従来のRNNに対してベンチマークされる。
提案したRGTNは,標準RNNよりも優れるだけでなく,従来のRNNと関連する次元の曲線を緩和できることを示す。
論文 参考訳(メタデータ) (2020-09-18T10:13:36Z) - Tensor train decompositions on recurrent networks [60.334946204107446]
マトリックス製品状態(MPS)テンソルトレインは、ストレージの削減と推論時の計算時間の観点から、MPOよりも魅力的な特徴を持つ。
理論解析により,MPSテンソル列車はLSTMネットワーク圧縮の最前線に置かれるべきであることを示す。
論文 参考訳(メタデータ) (2020-06-09T18:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。