論文の概要、ライセンス

# (参考訳) 連続学習多対一LSTMを用いた金融市場における時系列のリアルタイム予測 [全文訳有]

Real-time Forecasting of Time Series in Financial Markets Using Sequentially Trained Many-to-one LSTMs ( http://arxiv.org/abs/2205.04678v1 )

ライセンス: CC BY 4.0
Kelum Gajamannage and Yonggi Park(参考訳) 金融市場は高度に複雑で不安定であり、このような市場について予測のために学ぶことは、クラッシュやその後の回復を早期に警告する上で不可欠である。 金融数学や機械学習といった様々な分野の学習ツールを使って、そのような市場で信頼できる予測をしようとしている。 しかし、人工ニューラルネットワーク(ann)フレームワークが開発されるまでは、この技術の精度は十分ではなかった。 さらに、財務時系列の正確なリアルタイム予測を行うことは、使用中のANNアーキテクチャとその訓練手順に非常に適している。 長期記憶(Long Short-term memory, LSTM)は、時系列予測に広く利用されているリカレントニューラルネットワークファミリーのメンバーである。 特に、既知の長さを持つ2つのLSTM、例えば、以前のデータのT$タイムステップをトレーニングし、わずか1回だけ前進を予測します。 各イテレーションにおいて、1つのLSTMが最適なエポック数を見つけるために使用される一方で、第2のLSTMは予測するエポック数だけを訓練する。 我々は、現在の予測を次の予測のためのトレーニングセットとして扱い、同じLSTMを訓練する。 従来のトレーニング手法では,テスト期間中に予測がさらに遠ざかると誤差が大きくなるが,本手法では,テスト期間中にトレーニングが進むにつれて,精度が向上する。 我々のアプローチの予測精度は、株式、暗号通貨、商品の3つの異なる金融市場の3つの時系列を用いて検証される。 その結果,拡張カルマンフィルタ,自己回帰モデル,自己回帰的統合移動平均モデルと比較した。

Financial markets are highly complex and volatile; thus, learning about such markets for the sake of making predictions is vital to make early alerts about crashes and subsequent recoveries. People have been using learning tools from diverse fields such as financial mathematics and machine learning in the attempt of making trustworthy predictions on such markets. However, the accuracy of such techniques had not been adequate until artificial neural network (ANN) frameworks were developed. Moreover, making accurate real-time predictions of financial time series is highly subjective to the ANN architecture in use and the procedure of training it. Long short-term memory (LSTM) is a member of the recurrent neural network family which has been widely utilized for time series predictions. Especially, we train two LSTMs with a known length, say $T$ time steps, of previous data and predict only one time step ahead. At each iteration, while one LSTM is employed to find the best number of epochs, the second LSTM is trained only for the best number of epochs to make predictions. We treat the current prediction as in the training set for the next prediction and train the same LSTM. While classic ways of training result in more error when the predictions are made further away in the test period, our approach is capable of maintaining a superior accuracy as training increases when it proceeds through the testing period. The forecasting accuracy of our approach is validated using three time series from each of the three diverse financial markets: stock, cryptocurrency, and commodity. The results are compared with those of an extended Kalman filter, an autoregressive model, and an autoregressive integrated moving average model.
公開日: Tue, 10 May 2022 05:18:45 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] G L . s c [ ] G L。 sc [ 0.47
1 v 8 7 6 4 0 1 v 8 7 6 4 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Real-time Forecasting of Time Series in Financial Markets Using 金融市場における時系列のリアルタイム予測 0.86
Sequentially Trained Many-to-one LSTMs 連続訓練多対一LSTM 0.56
Kelum Gajamannagea,∗, Yonggi Parka Kelum Gajamannagea,∗, Yonggi Parka 0.32
aDepartment of Mathematics and Statistics, Texas A&M University - Corpus Christ, 6300 Ocean Dr. adepartment of mathematics and statistics, texas a&m university - corpus christ, 6300 ocean dr. (英語) 0.44
, Corpus Christi, TX コーパスクリスティ TX 0.52
78412, USA 78412年(延暦13年) 0.33
Abstract Financial markets are highly complex and volatile; thus, learning about such markets for the sake of making predictions is vital to make early alerts about crashes and subsequent recoveries. 概要 金融市場は高度に複雑で不安定であり、このような市場について予測のために学ぶことは、クラッシュやその後の回復を早期に警告する上で不可欠である。
訳抜け防止モード: 概要 金融市場は複雑で不安定だ ですから 予測をするために このような市場について学ぶことは クラッシュとその後の回復を 早期に警告するのに不可欠です
0.60
People have been using learning tools from diverse fields such as financial mathematics and machine learning in the attempt of making trustworthy predictions on such markets. 金融数学や機械学習といった様々な分野の学習ツールを使って、そのような市場で信頼できる予測をしようとしている。 0.77
However, the accuracy of such techniques had not been adequate until artificial neural network (ANN) frameworks were developed. しかし、人工ニューラルネットワーク(ann)フレームワークが開発されるまでは、この技術の精度は十分ではなかった。 0.74
Moreover, making accurate realtime predictions of financial time series is highly subjective to the ANN architecture in use and the procedure of training it. さらに、財務時系列の正確なリアルタイム予測を行うことは、使用中のANNアーキテクチャとその訓練手順に非常に適している。 0.72
Long short-term memory (LSTM) is a member of the recurrent neural network family which has been widely utilized for time series predictions. 長期記憶(Long Short-term memory, LSTM)は、時系列予測に広く利用されているリカレントニューラルネットワークファミリーのメンバーである。 0.71
Especially, we train two LSTMs with a known length, say T time steps, of previous data and predict only one time step ahead. 特に、Tタイムステップなどの既知の長さを持つ2つのLSTMをトレーニングし、前回のデータを1回だけ予測します。 0.80
At each iteration, while one LSTM is employed to find the best number of epochs, the second LSTM is trained only for the best number of epochs to make predictions. 各イテレーションにおいて、1つのLSTMが最適なエポック数を見つけるために使用される一方で、第2のLSTMは予測するエポック数だけを訓練する。 0.78
We treat the current prediction as in the training set for the next prediction and train the same LSTM. 我々は、現在の予測を次の予測のためのトレーニングセットとして扱い、同じLSTMを訓練する。 0.68
While classic ways of training result in more error when the predictions are made further away in the test period, our approach is capable of maintaining a superior accuracy as training increases when it proceeds through the testing period. 従来のトレーニング手法では,テスト期間中に予測がさらに遠ざかると誤差が大きくなるが,本手法では,テスト期間中にトレーニングが進むにつれて,精度が向上する。 0.76
The forecasting accuracy of our approach is validated using three time series from each of the three diverse financial markets: stock, cryptocurrency, and commodity. 我々のアプローチの予測精度は、株式、暗号通貨、商品の3つの異なる金融市場の3つの時系列を用いて検証される。 0.76
The results are compared with those of an extended Kalman filter, an autoregressive model, and an autoregressive integrated moving average model. その結果,拡張カルマンフィルタ,自己回帰モデル,自己回帰的統合移動平均モデルと比較した。 0.65
Keywords: Many-to-one LSTM, sequential training, real-time forecasting, time series, financial markets キーワード:多対一LSTM、シーケンシャルトレーニング、リアルタイム予測、時系列、金融市場 0.78
1. Introduction Financial markets refer broadly to any marketplace that entitles the trading of securities, commodities, and other fungibles, and the financial security market includes stock market, cryptocurrency market, etc. はじめに 金融市場は証券、商品、その他のファンジブルの取引権を持つ市場であり、金融セキュリティ市場は株式市場、暗号通貨市場などが含まれる。 0.53
Bahadur et al (2019). バハドゥルとアル(2019年)。 0.53
Among the three markets, which are stock, cryptocurrency, and commodity, the stock markets are well known to people while the other two are not. 株式、暗号通貨、商品の3つの市場のうち、株式市場は人々によく知られているが、他の2つはそうではない。 0.73
A cryptocurrency market exchanges digital or virtual currencies between peers without the need for a third party such as a bank (Squarepants, 2022), but a commodity market trades raw materials such as gold and oil rather than manufactured products. 暗号通貨市場は、銀行(squarepants, 2022)などの第三者を必要とせず、ピア間でデジタルまたは仮想通貨を交換するが、商品市場は、製造製品ではなく、金や石油などの原材料を取引する。 0.72
These markets are both highly complex and volatile due to diverse economical, social, and political conditions (Qiu et al , 2020). これらの市場は経済的、社会的、政治的条件の多様さから非常に複雑で不安定である(Qiu et al , 2020)。 0.68
Learning such markets for the sake of making predictions is vital because that aids market analysts to make early alerts about crashes and subsequent recoveries so that the investors can either obtain better precautions for future crashes or gain more profit under future recoveries. こうした市場を予測のために学ぶことは、市場アナリストが早期にクラッシュやその後のリカバリを警告するのを助けるため、将来のクラッシュの予防策を投資家が得るか、将来のリカバリで利益を得るため、不可欠である。 0.70
Since it is unreliable and ∗Corresponding author. 信頼できないので、 共著者。 0.57
Email addresses: kelum.gajamannage@ta mucc.edu (Kelum Gajamannage ), yonggi.park@tamucc.e du (Yonggi Park) メールアドレス:kelum.gajamannage@t amucc.edu (Kelum Gajamannage ), yonggi.park@tamucc.e du (Yonggi Park) 0.42
Preprint submitted to Elsevier Elsevierに提出されたプレプリント 0.57
May 11, 2022 2022年5月11日 0.71
英語(論文から抽出)日本語訳スコア
inefficient to rely only on a trader’s personal experience and intuition for the analysis and judgment of such markets, traders need smart trading recommendations derived from scientific research methods. トレーダーの個人的経験とそのような市場の分析と判断に対する直感のみに頼るのが効率的でないため、トレーダーは科学的研究手法から導かれたスマートトレーディングレコメンデーションが必要である。
訳抜け防止モード: そのような市場の分析と判断のために、トレーダーの個人的な経験と直感にのみ依存する非効率 トレーダは 科学的研究手法に基づく スマートトレーディングレコメンデーションが必要です
0.79
The classical methods of making predictions on time series data are mostly linear statistical approaches such as linear parametric autoregressive (AR), moving average (MA), and autoregressive integrated moving average (ARIMA) (Zhao et al , 2018) where they assume linear relationships between the current output and previous outputs. 時系列データで予測を行う古典的な方法は、線形パラメトリック自己回帰(ar)、移動平均(ma)、自己回帰的統合移動平均(arima)(zhao et al、2018年)といった線形統計アプローチであり、現在の出力と以前の出力の線形関係を仮定している。 0.79
Thus, they often do not capture non-linear relationships in the data and cannot cope with certain complex time series. したがって、それらはしばしばデータの非線形関係を捉えず、ある複雑な時系列に対処できない。 0.83
Because financial time series are nonstationary, nonlinear, and contaminated with high noise (Bontempi et al , 2013), traditional statistical models have some limitations in predicting financial time series with high precision. 金融時系列は非定常、非線形、高ノイズで汚染される(bontempi et al , 2013)ため、従来の統計モデルは高精度な金融時系列の予測にいくつかの制限がある。 0.72
Purely data-driven approaches such as Artificial Neural Networks (ANNs) are adopted to forecast nonlinear and nonstationary time series data with both high efficiency and better accuracy and have become a popular predictor due to adaptive self-learning (Gajamannage et al , 2021). ANN(Artificial Neural Networks)のような純粋にデータ駆動型アプローチは、非線形および非定常時系列データを高い効率と精度で予測するために採用され、適応型自己学習(Gajamannage et al, 2021)により一般的な予測器となった。 0.80
Recurrent Neural Networks (RNNs) are powerful and robust types of ANNs that belong to the most promising algorithms in use because of their internal memory (Park et al , 2022). リカレントニューラルネットワーク(recurrent neural network, rnns)は、内部メモリのために使用されている最も有望なアルゴリズムに属する、強力で堅牢なアンタイプである(park et al, 2022)。 0.65
This internal memory remembers its inputs and helps RNN to find solutions for a vast variety of problems (Ma & Principe, 2018). この内部記憶は入力を記憶し、RNNが様々な問題の解決策を見つけるのに役立つ(Ma & Principe, 2018)。 0.80
RNN is optimized with respect to its weights to fit the training data by adopting a technique called backpropagation that requires the gradient of the RNN. RNNは、トレーニングデータに適合するために、RNNの勾配を必要とするバックプロパゲーションと呼ばれるテクニックを採用することで、その重みに対して最適化されている。
訳抜け防止モード: RNNはトレーニングデータに適合するように重量に最適化されている RNNの勾配を必要とするバックプロパゲーションと呼ばれるテクニックを採用する。
0.80
However, the gradient of RNN may vanish and explode during the optimization routing which hampers RNN’s learning ability of long data sequences (Allen-Zhu et al , 2019). しかし、RNNの勾配は、RNNの長いデータシーケンスの学習能力を損なう最適化ルーティング中に消えて爆発する可能性がある(Allen-Zhu et al , 2019)。 0.70
As a solution to these two problems (Le & Zuidema, 2016), the LSTM architecture (Hochreiter & Schmidhuber, 1997), which is a special type of RNN, is often used. これらの2つの問題の解法(Le & Zuidema, 2016)として、特殊タイプのRNNであるLSTMアーキテクチャ(Hochreiter & Schmidhuber, 1997)がよく用いられる。 0.76
LSTMs are explicitly designed to learn long-term dependencies of time-dependent data by remembering information for long periods. LSTMは、長期にわたって情報を記憶することで、時間依存データの長期依存を学習するように明示的に設計されている。 0.54
LSTM performs faithful learning in applications such as speech recognition (Tian et al , 2017; Kim et al , 2017) and text processing (Shih et al , 2018; Simistira et al , 2015). LSTMは音声認識(Tian et al , 2017; Kim et al , 2017)やテキスト処理(Shih et al , 2018; Simistira et al , 2015)などのアプリケーションで忠実な学習を行う。 0.85
Moreover, LSTM is also suitable for complex data sequences such as stock time series extracted from financial markets because it has internal memory, has capability of customization, and is free from gradient-related issues. さらに、LSTMは、内部記憶を持ち、カスタマイズ能力があり、勾配に関する問題がないため、金融市場から抽出したストックタイムシリーズのような複雑なデータシーケンスにも適している。 0.66
We adopt a real-time iterative approach to train an LSTM that makes only one prediction for each iteration. LSTMのトレーニングにはリアルタイムの反復的アプローチを採用しています。
訳抜け防止モード: 私たちは、リアルタイム反復アプローチを採用しています。 イテレーション毎に1つの予測のみを行うLSTMをトレーニングする。
0.58
For that, we train this LSTM with a known length, sat T time steps, of previous data while setting the loss function to be the mean square error between labels and predictions. そのため、このLSTMは、ラベルと予測の間の平均二乗誤差として損失関数を設定しながら、前のデータのT時間ステップを既知の長さでトレーニングする。 0.79
The LSTM predicts only one time step ahead during the current iteration that we treat as an observation for the next training dataset. LSTMは、次のトレーニングデータセットの観察として扱う現在のイテレーションにおいて、わずか1回だけ前進します。 0.73
We train the same LSTM over all the iterations where the number of iterations is equal to the number of total predictions. すべてのイテレーションに対して同じLSTMをトレーニングします。
訳抜け防止モード: すべてのイテレーションで同じLSTMをトレーニングします。 反復回数は 予測総数に等しい。
0.55
This real-time LSTM model is capable of incorporating every new future observation of the time series into the ongoing training process to make predictions. このリアルタイムLSTMモデルは、時系列のすべての新しい将来の観測を進行中のトレーニングプロセスに組み込んで予測を行うことができる。 0.84
Since we use a sequence of observed time series to predict only one time step ahead, the prediction accuracy increases significantly. 観測された時系列の系列を用いて1回の予測のみを行うため,予測精度は大幅に向上する。 0.82
Moreover, the T − 1 previous observations along with the current prediction predict for the next time step, and so the prediction error associated with the current prediction is further minimized as it runs through iterations. さらに、T-1以前の観測と、次のタイミングの現在の予測予測とを合わせて、現在の予測に付随する予測誤差が、繰り返しを経るにつれてさらに最小化される。 0.70
While classic ways of training result in more error when the predictions are made further away in the test period, our approach is capable of maintaining a superior accuracy as training increases when it proceeds through the testing period. 従来のトレーニング手法では,テスト期間中に予測がさらに遠ざかると誤差が大きくなるが,本手法では,テスト期間中にトレーニングが進むにつれて,精度が向上する。 0.76
This paper is structured with four sections, namely, introduction (Sec.1), methods (Sec. 2), performance analysis (Sec. 3), and discussion (Sec. 4). 本稿では,導入(Sec.1),メソッド(Sec.2),パフォーマンス分析(Sec.3),議論(Sec.4)の4つのセクションから構成される。
訳抜け防止モード: 本論文は,4つのセクション,すなわち導入(Sec.1)で構成されている。 メソッド (Sec . 2 )、パフォーマンス解析 (Sec . 3 ) と議論する(Sec . 4 )。
0.85
In Sec.1, first, we present the notion of real-time time series predictions. Sec.1では、まずリアルタイム時系列予測の概念を示す。 0.81
Then, we provide mathematical formulation of many-to-one LSTM architecture for sequential training. 次に、逐次学習のための多対一LSTMアーキテクチャの数学的定式化を行う。 0.55
Finally, for the state-of-the-art time series prediction methods, we provide the formulation of one nonlinear statistical approach called extended Kalman filters (EKF), and two linear statistical approaches called AR and ARIMA. 最後に,最先端の時系列予測法について,拡張カルマンフィルタ(ekf)と呼ばれる非線形統計手法と,arとarimaと呼ばれる2つの線形統計手法を定式化する。 0.77
Sec. 3 provides a detailed analysis of the performance of our LSTM architecture against that of EKF, AR, and ARIMA using three financial stocks (Apple, Microsoft, Google), three cryptocurrencies (Bit- Sec.3では、EKF、AR、ARIMAの3つの金融株(Apple、Microsoft、Google)、3つの暗号通貨(Bit-)によるLSTMアーキテクチャのパフォーマンスを詳細に分析しています。
訳抜け防止モード: Sec .3は3つの金融株を用いたESF、AR、ARIMAに対するLSTMアーキテクチャの性能の詳細な分析を提供する。 (Apple、Microsoft、Google) 3つの暗号通貨(ビット)
0.82
2 2 0.42
英語(論文から抽出)日本語訳スコア
coin, Ethereum, Cardano), and three commodities (gold, crude oil, natural gas). coin, ethereum, cardano)と3つの商品(金、原油、天然ガス)。 0.74
We present the conclusions along with a discussion in Sec. 4. 結論は、Sec.4での議論とともに提示する。 0.58
2. Methods In this section, first, we provide technical details of the real-time time series prediction scheme. 2.方法 本稿では,まず,リアルタイム時系列予測手法の技術的詳細について述べる。 0.81
Then, we present the LSTM architecture to cater to the real-time time series prediction, and LSTM’s training and predicting procedures. 次に,LSTMアーキテクチャをリアルタイム時系列予測に適用し,LSTMのトレーニングと予測手順を示す。 0.73
Moreover, we apply this real-time prediction scheme for three other time series prediction methods, namely, EKF, AR, and ARIMA. さらに, ekf, ar, およびarimaの3つの時系列予測法に対して, このリアルタイム予測手法を適用した。 0.74
These three methods will be our state-of-the-art methods to compare the performance of LSTM. これら3つの手法は,LSTMの性能を比較するための最先端手法である。 0.66
2.1. Real-time time series prediction 2.1. リアルタイム時系列予測 0.62
We adopt a “sequential” approach to efficiently train time series models and predict for future. 時系列モデルを効率的にトレーニングし、将来を予測するために、“逐次”アプローチを採用しています。
訳抜け防止モード: 時系列モデルを効率的に学習する"シーケンシャル"アプローチを採用する 未来を予測できるのです
0.78
For a fixed-length input sequential data, the model is set to predict only one future time step at an iteration where the process runs until the required length of the prediction is performed. 固定長入力シーケンシャルデータに対して、予測の必要な長さまでプロセスが実行されるイテレーションにおいて、1つの将来の時間ステップのみを予測するように設定する。 0.79
This real-time prediction approach is capable of incorporating every new data point of the time series into the ongoing training process to make predictions for the next time step. このリアルタイム予測アプローチは、進行中のトレーニングプロセスに時系列の新しいデータポイントをすべて組み込んで、次のステップの予測を行うことができる。 0.79
Let, the current observed time series is [x(1), . . . , x(T )] for some 現在の観測時系列は、ある場合には [x(1), . , x(T )] とする。 0.73
T , the unobserved future portion of the time series is (cid:2)x(T +1), . . . , x(T +N )(cid:3) for some N < T , and the time x(T ) = F(cid:16) where X (1) =(cid:2)x(1), . . . , x(T−1)(cid:3). T , 時系列の未観測未来部分は (cid:2)x(T +1), . . , x(T +N )(cid:3) for some N < T , and the time x(T ) = F(cid:16) where X (1) =(cid:2)x(1), . . , x(T−1)(cid:3) である。 0.94
Then, we predict for the time step (T + 1), denoted by ˆx(T +1), as ˆx(T +1) = F(cid:16) X (2)(cid:17) where X (2) = (cid:2)x(2), . . . , x(T )(cid:3). すると、時間ステップ (T + 1) を予測し、 (T +1) = F(cid:16) X (2)(cid:17) ここで X (2) = (cid:2)x(2), . . , x(T )(cid:3) となる。 0.77
In the second iteration, we train the same model F with ˆx(T +1) = F(cid:16) X (2)(cid:17) where X (2) = (cid:2)x(2), . . . , x(T )(cid:3) and predict for the time step (T + 2), X (3)(cid:17) denoted by ˆx(T +2), as ˆx(T +2) = F(cid:16) 第2のイテレーションでは、同じモデル F を X (2) = (cid:2)x(2), . , x(T )(cid:3) で訓練し、時間ステップ (T + 2), X (3)(cid:17) を .x(T +2) = F(cid:16) として予測する。
訳抜け防止モード: 第2の反復では、同じモデル f を f(cid:16 ) x ( 2)(cid:17 ) で訓練し、ここで x ( 2 ) = ( cid:2)x(2 ), ... とする。 x(t ) (cid:3 ) であり、時間ステップ (t + 2 ) を予測する。 x ( 3)(cid:17 ) と表記され、x(t +2 ) = f(cid:16 ) と表記される。
0.82
series model is F, see Fig 1. シリーズモデルは f で、図 1 を参照。 0.85
For the first iteration, we train the time series forecasting model with the 最初のイテレーションでは、時系列予測モデルをトレーニングします。 0.66
(cid:104) x(3), . . . , ˆx(T +1)(cid:105) (cid:104) x(3), . . . . , .x(T +1)(cid:105) 0.45
. We keep on doing this process . 私たちはこのプロセスを続けます 0.61
X (1)(cid:17) X (1) (cid:17) 0.47
where X (3) = ここで x (3) = 0.80
until the predictions are performed for all the N time steps . 予測が全N時間ステップで実行されるまで。 0.61
2.2. Many-to-one LSTM architecture with sequential training 2.2. 逐次学習による多対一LSTMアーキテクチャ 0.49
Since we make predictions only for one time step ahead at a time for an input time series, the LSTM architecture implemented here is the many-to-one type, see Fig 2 入力時系列を1回に1回だけ予測するので、ここで実装されたLSTMアーキテクチャは多対1の型である。
訳抜け防止モード: 入力時系列を一度に1回だけ予測するので、 ここで実装されたLSTMアーキテクチャは、多くの-to-one型です。 図2参照。
0.76
(a) for K-stacked LSTM architecture. (a) K-stacked LSTMアーキテクチャ。 0.79
An LSTM consists of a series of nonlinear recurrent modules, denoted as M (t) for t = 1, . . . , T and j = 1, . . . , N in Fig 2, where each module processes data related to one time step. LSTMは、t = 1, . , T and j = 1, . . . . . . , N in Fig 2 に対して M (t) と表記される一連の非線形再帰加群で構成され、各モジュールは1つの時間ステップに関連するデータを処理する。 0.87
LSTM introduces a memory cell, a special type of the hidden state, that has the same shape as the hidden state which is engineered to record additional information. LSTMは隠蔽状態の特別な型であるメモリセルを導入し、追加情報を記録するために設計された隠蔽状態と同じ形状である。 0.83
Each recurrent module in an LSTM filters information through four hidden layers where three of them are gates, namely, forgotten gate, input gate, and output gate, and the other is called the cell state that maintains and updates long-term memory, see 2(b). lstm内の各リカレントモジュールは、3つがゲート、すなわち忘れられたゲート、入力ゲート、出力ゲートである4つの隠れたレイヤを通して情報をフィルタリングし、もう1つは長期記憶を維持し更新するセル状態と呼ばれる。 0.74
j The forgotten gate resets the content of the memory cell by deciding what information should be forgotten or retained. j 忘れられたゲートは、どの情報を忘れるか、保持すべきかを判断してメモリセルの内容を再セットする。 0.54
This gate produces a value between zero and one where zero means completely forgetting the previous hidden state and one means completely retaining that. このゲートは 0 と 1 の間の値を生成し、0 は以前の隠れ状態を完全に忘れることを意味する。 0.78
Information from the previous hidden state, i.e., h(t−1), and the information from the current input, i.e., x(t), is passed through the sigmoid function, denoted as σ, according to 前の隠れ状態、すなわちh(t−1)からの情報と、現在の入力、すなわちx(t)からの情報は、σとして表されるシグモイド関数を通して渡される。 0.71
f (t) = σ Wf · [h(t−1), x(t)] + bf f (t) = σ Wf · [h(t−1), x(t)] + bf 0.43
, (1) where Wf and bf are weighting matrix and biased vector, respectively. , (1) wf と bf はそれぞれ重み付き行列とバイアス付きベクトルである。 0.54
The input gate consisting of two components decides what new information is to be stored in the cell state. 2つの成分からなる入力ゲートは、セル状態に格納される新しい情報を決定する。 0.79
The first component is a sigmoid layer that decides which values to be updated based on the previous hidden state and the information from the current input such that 第1のコンポーネントは、以前の隠れ状態と現在の入力からの情報に基づいてどの値を更新するかを決定するsgmoid層である。 0.86
i(t) = σ Wi · [h(t−1), x(t)] + bi i(t) = σ Wi · [h(t−1), x(t)] + bi 0.42
, (2) (cid:16) , (2) (出典:16) 0.51
(cid:16) 3 (cid:17) (出典:16) 3 (cid:17) 0.50
(cid:17) (cid:17) 0.39
英語(論文から抽出)日本語訳スコア
Notation t T N L K L(t) σ p q E x(t) X (t) 表記 t T N L K L(t) σ p q E x(t) X(t) 0.79
l (cid:2)x(t), ..., x(T +t−2)(cid:3) うーん (cid:2)x(t), ..., x(T +t−2)(cid:3) 0.46
= ˆx(t) w(t) y(t) v(t) αi, 1 ≤ i ≤ p (t) βi, 1 ≤ i ≤ q a(t) c bi, bf , bc f h Li ∆D(·) Q(t), R(t), P (t) Jf , Jh Wi, Wf , Wo = シュックス(t) w(t) y(t) v(t) αi, 1 ≤ i ≤ p >(t) βi, 1 ≤ i ≤ q a(t) c bi, bf , bc f h Li >D(·) Q(t), R(t), P(t) Jf , Jh Wi, Wf , Wo
訳抜け防止モード: = x(t ) w(t ) y(t ) v(t ) αi, 1 ≤ i ≤ p s(t ) βi である。 1 ≤ i ≤ q a(t ) c bi, bf, bc f h li ( · ) q(t ), r(t ), p (t ) jf , jh wi , wf , wo
0.60
Description Index for time steps Length of the training period Forecasting length Number of epochs Number of stacked LSTMs Training loss at the l-th epoch of the t-th iteration Sigmoid function in LSTM Order of the AR model Number of past innovations in MA model Relative root mean square error The observation at the t-th time step where 1 ≤ t ≤ T t-th input training window 時間ステップの記述指標 トレーニング期間の長さ 予測時間 エポック数 積み重ねたLSTM数 LSTMのl-エポックにおける訓練損失 LSTMにおけるSigmoid関数 ARモデルの順 MAモデルにおける過去のイノベーションの数 相対根平均二乗誤差 t-th時間ステップにおける観測: 1 ≤ t ≤ T t-th入力トレーニングウィンドウ 0.82
The prediction at the t-th time step where T < t ≤ T + N White Gaussian noise vector with zero mean in EKF Observation vector at the t-th time step in EKF White Gaussian noise vector with zero mean in EKF Parameters of AR model White Gaussian noise vector with zero mean in AR model Parameters of MA model t-th past innovation of MA model Biased vector in ARIMA Bias vectors in LSTM System dynamics in EKF Measurement function in EKF i-th level lag operator D-th differential time series Covariance matrices of w(t), v(t), x(t), respectively, in EKF Jacobian matrices of f (·), h(·), respectively, in EKF Weight matrices in LSTM The prediction at the t-th time step where T < t ≤ T + N White Gaussian noise vector with zero mean in EKF Observation vector at the t-th time step in EKF White Gaussian noise vector with zero mean in EKF Parameters of AR model White Gaussian noise vector with zero mean in AR model Parameters of MA model t-th past innovation of MA model Biased vector in ARIMA Bias vectors in LSTM System dynamics in EKF Measurement function in EKF i-th level lag operator D-th differential time series Covariance matrices of w(t), v(t), x(t), respectively, in EKF Jacobian matrices of f (·), h(·), respectively, in EKF Weight matrices in LSTM
訳抜け防止モード: t < t ≤ t である t - th 時間ステップにおける予測 ma モデルのモデルパラメータ ma モデル t - th のモデルパラメータ ma モデルのバイアスベクトルにおける ma モデルバイアスベクトルの過去のイノベーション ekf i における ekf 計測関数における ekf 計測関数における lstm システムダイナミクス ekf i - th レベルラグ作用素 d - th 微分時間列共分散行列 w(t ) の ekf パラメータにおける ekf 観測ベクトルにおける ekf 平均値が 0 である ekf 観測ベクトルにおける ekf 平均値が 0 である ガウスノイズベクトル v(t ), x(t ) は、それぞれ f ( · ) の ekf ヤコビ行列における。 lstmのekf重量行列におけるh(·)
0.77
Table 1: Notations used in this paper and their descriptions 表1:本稿における表記とその記述 0.66
Abbreviations Description LSTM KF EKF AR MA ARMA ARIMA 略語 LSTM KF EKF AR MA ARMA ARIMA 0.32
Long Short-Term Memory Kalman Filter Extended Kalman Filter AutoRegressive Moving Average AutoRegressive Moving Average AutoRegressive Integrated Moving Average 長期記憶Kalmanフィルタ拡張Kalmanフィルタ 自己回帰移動平均自己回帰移動平均自己回帰積分平均 0.71
Table 2: Abbreviations used in this paper and their descriptions 表2:この論文で用いられる略語とその記述 0.79
4 4 0.42
英語(論文から抽出)日本語訳スコア
is shown by white color while the prediction for the future is shown in red color. 白で表示され、未来予測は赤で表示されます。
訳抜け防止モード: 白い色で示されていますが 将来の予測は赤い色で示されます。
0.79
For the first iteration, we 最初のイテレーションで、私たちは 0.73
Figure 1: Real-time time series prediction scheme where the currently observed time series,(cid:2)x(1), . . . , x(T )(cid:3) for some T , is shown by blue color. 図1: 現在観測されている時系列(cid:2)x(1), . . , x(T )(cid:3) をある T に対してブルー色で示すリアルタイム時系列予測スキーム。 0.84
The unobserved future time series,(cid:2)x(T +1), . . . , x(T +N )(cid:3) for some N < T , X (1)(cid:17) train the time series forecasting model with the x(T ) = F(cid:16) where X (1) =(cid:2)x(1), . . . , x(T−1)(cid:3). N < T , X (1)(cid:17) は x(T ) = F(cid:16) で時系列予測モデルを訓練するが、X (1) =(cid:2)x(1), . . , x(T−1)(cid:3) である。
訳抜け防止モード: 観測されていない将来の時系列、(cid:2)x(T +1 ) . x(T + N ) ( cid:3 ) for some N < T, X ( 1)(cid:17 ) は x(T ) = F(cid:16 ) ここで X ( 1 ) = ( cid:2)x(1 ),... で時系列予測モデルを訓練する。 x(T−1)(cid:3 )。
0.92
Then, we predict for the time step (T + 1) as ˆx(T +1) = F(cid:16) X (2)(cid:17) where X (2) = (cid:2)x(2), . . . , x(T )(cid:3). すると、時間ステップ (t + 1) について、x (2) = (cid:2)x(2), . , . , x(t )(cid:3) のとき、x(t +1) = f(cid:16) x (2)(cid:17) と予測する。 0.81
In the second X (2)(cid:17) iteration, we train the same model with ˆx(T +1) = F(cid:16) where X (2) =(cid:2)x(2), . . . , x(T )(cid:3) and predict for the time step (T + 2) as ˆx(T +2) = F(cid:16) (cid:104) x(3), . . . , ˆx(T +1)(cid:105) 第2のX(2)(cid:17)イテレーションでは、X(2) =(cid:2)x(2), . . , x(T )(cid:3) で同じモデルを訓練し、時間ステップ (T + 2) を shx(T +2) = F(cid:16) (cid:104) x(3) として予測する。
訳抜け防止モード: 第二の x ( 2)(cid:17 ) 反復では、x ( 2 ) = ( cid:2)x(2 ), ..., で同じモデルを f(cid:16 ) で訓練する。 x(t ) (cid:3 ) であり、時間ステップ (t + 2 ) の予測は、x(t + 2 ) = f(cid:16 ) (cid:104 ) x(3 ) ... である。 x(t +1)(cid:105) である。
0.83
X (3)(cid:17) X (3) (cid:17) 0.47
where X (3) = ここで x (3) = 0.80
. We keep on doing this process . 私たちはこのプロセスを続けます 0.61
until all the predictions are performed. すべての予測が行われるまでです 0.75
5 5 0.43
英語(論文から抽出)日本語訳スコア
where Wi and bi are weighting matrix and biased vector, respectively. wi と bi はそれぞれ重み付き行列とバイアス付きベクトルである。 0.72
The next component is a tanh layer that creates a vector of new candidate values, ˜c(t), based on the previous hidden state and the information from the current input as 次のコンポーネントは、前の隠れた状態と現在の入力からの情報をベースとして、新しい候補値のベクトルである tc(t) を生成するタン層である。 0.85
˜c(t) = tanh c(t) = tanh 0.38
Wc · [h(t−1), x(t)] + bc Wc · [h(t−1), x(t)] + bc 0.42
, (3) (cid:16) , (3) (出典:16) 0.51
(cid:17) where Wc and bc are weighting matrix and biased vector, respectively. (cid:17) wc と bc はそれぞれ重み付き行列とバイアス付きベクトルである。 0.58
ANN is X = (cid:2)x(1), . . . , x(t), . . . , x(T−1)(cid:3) and output from that is ˆx(T ). ann は x = (cid:2)x(1), . . , x(t), . . . . , x(t−1)(cid:3) で、そこから出力される。
訳抜け防止モード: ANN は X = ( cid:2)x(1 ) である。 x(t ), . . , x(T−1)(cid:3 ) and 出力は、x(T) である。
0.86
Figure 2: K-stacked LSTMs for many-to-one forecasting of a single feature time series where each LSTM is a collection of recurrent modules, denoted as M ’s. 図2: k-stacked lstms 単一機能時系列の多対一予測では、各lstm がリカレントモジュールの集合であり、m と表記されます。
訳抜け防止モード: 図2 - K - 多くのLSTMを積み重ねた - 単一の特徴時系列の予測 各LSTM は M の s と表される反復モジュールの集合である。
0.90
(a) the left figure shows a folded version of the artificial neural network (ANN) whereas the right figure shows its unfolded version of it. (a)左図は人工ニューラルネットワーク(ANN)の折りたたみバージョンを示し、右図は折りたたみバージョンを示している。
訳抜け防止モード: (a) 左図は人工ニューラルネットワーク(ANN)の折り畳み版を示しているが、 右の図はその展開されたバージョンを示しています
0.82
Here, the input for the ここでは、入力します。 0.65
(b) Each M filters information through four hidden layers where three of them are gates, namely, forgotten, input, and output, and the other is called the cell state. (b)各mは4つの隠れた層を通して情報をフィルタリングし、3つがゲート、すなわち、忘れられた、入力された、出力され、もう1つはセル状態と呼ばれる。
訳抜け防止モード: b) 各Mは3つのゲートが隠された4つの層を通して情報をフィルタリングする。 つまり、忘れられ、入力され、出力され、 もう1つは細胞状態です
0.77
The forgotten gate resets the content of the memory cell, the input gate decides what new information is stored in the memory cell, the cell state stores long-term information in the memory, and the output gate sends out a filtered version of the memory cell’s stored information from the M . 忘れられたゲートは、メモリセルの内容をリセットし、入力ゲートは、メモリセルに記憶されている新しい情報を決定し、セル状態は、メモリに長期情報を格納し、出力ゲートは、mから、メモリセルの記憶された情報のフィルタリングバージョンを送信する。 0.74
Operations in an M are given as follows: f (t) = σ , M の操作は次のようになる: f (t) = σ , 0.85
(cid:17) h(t) = o(t) (cid:12) tanh(cid:0)c(t)(cid: 1), where (cid:12) and ⊕ are point-wise multiplication and point-wise addition, respectively. (cid:17) h(t) = o(t) (cid:12) tanh(cid:0)c(t)(cid: 1) ここで (cid:12) は点次乗法および点次加法である。 0.79
Wf · [h(t−1), x(t)] + bf Wf · [h(t−1), x(t)] + bf 0.43
Wi · [h(t−1), x(t)] + bi Wi · [h(t−1), x(t)] + bi 0.42
WC · [h(t−1), x(t)] + bc WC · [h(t−1), x(t)] + bc 0.43
, c(t) = f (t) (cid:12) c(t−1) ⊕ i(t) (cid:12) ˜c(t), o(t) = σ , c(t) = f(t) (cid:12) c(t−1) ^ i(t) (cid:12) ^ c(t), o(t) = σ 0.49
Wo · [h(t−1), x(t)] + bo Wo · [h(t−1), x(t)] + bo 0.43
, and ˜c(t) = tanh と c(t) = tanh 0.44
(cid:16) (cid:16) (出典:16) (出典:16) 0.67
(cid:17) , i(t) = σ (cid:17) , i(t) = σ 0.41
(cid:16) (cid:16) (出典:16) (出典:16) 0.67
(cid:17) (cid:17) (cid:17) (cid:17) 0.39
Cell state updates the LSTM’s memory with new long-term information. セル状態は新しい長期情報でLSTMのメモリを更新する。 0.78
For that, first, it multiplies point wisely the old cell state c(t−1) by the forgetting state f (t), i.e., f (t) (cid:12) c(t−1), to assure that the information retains from the old cell state is what is allowed by the forgetting state. まず、古い細胞状態 c(t−1) を忘れる状態 f(t) 、すなわち f(t) (cid:12) c(t−1) に乗算し、古い細胞状態から保持されている情報が忘れられる状態によって許されるものであることを保証する。 0.77
Then, we add the pointwise product i (cid:12) ˜c(t) into f (t) (cid:12) c(t−1), i.e., そして f (t) (cid:12) c(t−1) に点積 i (cid:12) > c(t) を加える。 0.77
c(t) = f (t) (cid:12) c(t−1) ⊕ i(t) (cid:12) ˜c(t), c(t) = f(t) (cid:12) c(t−1) ^ i(t) (cid:12) ^ c(t) 0.48
(4) as the information from the current input state which is found relevant by the ANN. (4) ANNが関連付けている現在の入力状態からの情報として。 0.55
The output gate determines the value of the next hidden state with the information from the current cell state, current input state, and previous hidden state. 出力ゲートは、現在のセル状態、現在の入力状態、および以前の隠蔽状態からの情報により、次の隠蔽状態の値を決定する。 0.82
First, a sigmoid layer decides how much of the current input and the previous hidden state are going to output. まず、sgmoid層は、現在の入力と以前の隠れ状態のどれが出力されるかを決定する。 0.76
Then, the current cell state is passed through the tanh layer to そして、現在のセル状態がtanh層を通過する。 0.68
6 6 0.43
英語(論文から抽出)日本語訳スコア
scale the cell state value between -1 and 1. 細胞状態値を-1から1にスケールする。 0.80
Thus, the output h(t) is したがって、出力h(t) は、 0.76
h(t) = o(t) (cid:12) tanh h(t) = o(t) (cid:12) tanh 0.49
, with o(t) = σ ; o(t) = σ で 0.73
Wo · [h(t−1), x(t)] + bo Wo · [h(t−1), x(t)] + bo 0.43
c(t)(cid:17) (cid:16) c(t)(cid:17) (cid:16) 0.43
(cid:16) (cid:17) (出典:16) (cid:17) 0.53
, (5) where Wo and bo are weighting matrix and biased vector, respectively. , (5) wo と bo はそれぞれ重み付き行列とバイアス付きベクトルである。 0.53
Based upon h(t), the network decides which information from the current hidden state should be carried out to the next hidden state where the next hidden state is used for prediction. h(t)に基づいて、ネットワークは、次の隠れ状態が予測に使用される次の隠れ状態まで、現在の隠れ状態からどの情報を実行するべきかを決定する。 0.78
To conclude, the forget gate determines which relevant information from the prior steps is needed. 結論として、忘れゲートは、前段からの関連情報を必要とするかを決定する。
訳抜け防止モード: 結論として 忘れゲートは、前のステップから必要な関連情報を決定する。
0.72
The input gate decides what relevant information can be added from the current cell state, and the output gates finalize the input to the next hidden state. 入力ゲートは、現在のセル状態からどの関連情報を付加できるかを決定し、出力ゲートは、次の隠れ状態への入力を確定する。 0.74
2.2.1. Optimization of LSTM 2.2.1. lstmの最適化 0.47
Training an LSTM is the process of minimizing a relevant reconstruction error function, also called loss function, with respect to weights and bias vectors of Eqns. LSTMのトレーニングは、Eqnsの重みとバイアスベクトルに関して、ロス関数とも呼ばれる関連する再構成誤差関数を最小化するプロセスである。 0.79
(1), (2), (3), (4), and (5). (1), (2), (3), (4), and (5). 0.35
Such a minimization problem is implemented in four steps: first, forward propagation of input data through the ANN to get the output; second, calculate the loss, between forecasted output and the true output; third, calculate the derivatives of the loss function with respect to the LSTM’s weights and bias vectors using backpropagation through time (BTT) Werbos (1990); and fourth, adjusting the weights and bias vectors by gradient descent method Gruslys et al (2016). このような最小化問題は、ANNを介して入力データを前方に伝播して出力を得る、第2に予測出力と真の出力の間の損失を計算する、第3にLSTMの重みとバイアスベクトルに関する損失関数の微分を時間(BTT)Werbos(1990)を用いて計算する、第4に勾配降下法Gruslys et al(2016)により重みとバイアスベクトルを調整する、という4つのステップで実現される。 0.82
BTT unrolls backward all the dependencies of the output onto the weights of the ANN Manneschi & Vasilaki (2020), which is represented from left side to right side in Fig 2(a). bttは、出力のすべての依存性を、図2(a)で左から右に表されるan manneschi & vasilaki(2020)の重みに展開する。 0.57
At each iteration, say t ∈ [1, N +1], we train the LSTM by only one instance of input-label where the input is X (t) = and the label is ˆx(T +t−1). 各反復において、例えば t ∈ [1, N +1] において、入力が X (t) = でラベルが sx(T +t−1) である入力ラベルの1つのインスタンスでLSTMを訓練する。 0.82
Due to this process, at the t-th iteration, the ANN is trained with t-th input-label instance and predicts for the (T + t − 1)-th time step. このプロセスのため、t番目のイテレーションでは、ANNはt番目の入力ラベルインスタンスでトレーニングされ、(T + t − 1)番目のタイムステップを予測する。
訳抜け防止モード: このプロセスのため、t - th イテレーションで。 ANNは t - th input - label instance でトレーニングされる そして (T + t − 1) 番目の時間ステップを予測する。
0.78
Thus, we formulate the loss function at the t-th iteration of the LSTM as the relative mean square error, そこで,LSTMのt次繰り返しにおける損失関数を平均二乗誤差として定式化する。 0.77
(cid:104) x(t), . . . , x(T ), ˆx(T +1), . . . , ˆx(T +t−2)(cid:105) (cid:104) x(t), . . . , x(T ), .x(T +1), . . , . . . . , .x(T +t−2)(cid:105)
訳抜け防止モード: (cid:104 ) x(t ) . , x(T ) シュックス(T +1 ) , . . , . . . . . . , .x(T + t−2) (cid:105 )
0.82
(cid:13)(cid:13)(cid :13)ˆx(T +t−1) − x(T +t−1)(cid:13)(cid:13)(c id:13)2 (cid:13)(cid:13)(cid :13)(cid:13)(cid:t−1) − x(t +t−1)(cid:13)(cid:13)(c id:13)2 0.32
(cid:13)(cid:13)x(T +t−1)(cid:13)(cid:13)2 (cid:13)(cid:13)x(T +t−1)(cid:13)(cid:13)2 0.37
F L(t) = F F L(t) = F 0.43
, (6) where F denotes the Frobenius norm and ˆx(T +t−1) is the output of the LSTM for the input X (t−1). , (6) ここで F はフロベニウスノルムを表し、x(T +t−1) は入力 X (t−1) に対する LSTM の出力である。 0.56
We use BTT to compute the derivatives of Eqn. 我々は、BTTを用いてEqnの微分を計算する。 0.64
(6) with respect to the weights and bias vectors. (6) 重みと偏りベクトルについて。 0.50
We update the weights using the gradient descent-based method, called Adaptive Moment Estimation (ADAM) Kingma & Ba (2015). 我々は,Adaptive Moment Estimation (ADAM) Kingma & Ba (2015) と呼ばれる勾配降下法を用いて重みを更新する。 0.83
ADAM is an iterative optimization algorithm used in recent machine learning algorithms to minimize loss functions where it employs the averages of both the first-moment gradients and the secondmoment of the gradients for computations. ADAMは、最近の機械学習アルゴリズムで使われている反復最適化アルゴリズムで、第1モーメント勾配と第2モーメントの両方を計算に用いた損失関数を最小化する。 0.84
It generally converges faster than standard gradient descent methods and saves memory by not accumulating the intermediate weights. 一般に標準勾配降下法よりも早く収束し、中間重みを蓄積しないことでメモリを節約する。 0.71
To assure better convergence of the loss function, we integrate epochs into the training process in a unique way that we explain here for the t-th iteration. 損失関数のより良い収束を保証するため、私たちは第tイテレーションで説明するようなユニークな方法で、エポックをトレーニングプロセスに統合します。 0.67
However, if the loss function is non-convex or semiconvergence choosing the best number of epochs is challenging. しかし、損失関数が非凸あるいは半収束である場合、最良のエポック数を選択することは困難である。 0.60
Fig 3 illustrates the non-convex behavior of an LSTM’s loss function that is trained with the closing prices of the Apple stock. 図3は、Apple株の終値でトレーニングされたLSTMの損失関数の非凸動作を示しています。 0.74
Here, we input a sequence of 1227 days of prices into the LSTM and generate the price for the 1228-th day where the loss is computed as the relative mean square error between the predicted price and the observed prices for the 1228-th day. ここでは、LSTMに1227日間の価格を入力し、その損失を予測値と観測値との相対的な2乗誤差として計算した1228日の価格を生成する。
訳抜け防止モード: ここでは lstmに 1227日分の価格を入力します 予測価格と観測された1228日の価格との相対平均二乗誤差として損失を計算した1228日の価格を生成する。
0.77
We proceed with this single-day training for 60 epochs as shown in Fig 3. 図3に示すように、この1日間のトレーニングを60エポックで進めます。 0.62
Since the loss varies non-convexly with respect to epochs, we came up with a unique way of training the LSTM through epochs. 損失はエポックに対して非凸的に変化するため,エポックを通してLSTMをトレーニングする方法が考案された。 0.60
Particularly, we maintain two LSTMs, denoted as LST M1 and LST M2, that are trained through each iteration. 特にLST M1 と LST M2 の 2 つのLSTM を各イテレーションでトレーニングする。
訳抜け防止モード: 特に LST M1 と LST M2 の 2 つのLSTM を維持している。 各イテレーションを通じてトレーニングされます
0.78
We assume that those two LSTMs corresponding to the (t − 1)-th iteration are given for the t-th iteration. t − 1)-次反復に対応する2つのLSTMがt-次反復に対して与えられると仮定する。 0.75
For the t-th iteration, we train LST M1 with the input X (t) and the label xT +t−1 for fix number of epochs, say t 番目のイテレーションでは、入力 X (t) とラベル xT +t−1 で LST M1 を訓練し、エポック数の固定数、例えば、 0.73
7 7 0.42
英語(論文から抽出)日本語訳スコア
L. Here, we record LST M1’s optimum weights and biased vectors corresponding to each of the epoch. ここでは、LST M1の最適重みと各エポックに対応する偏りベクトルを記録する。 0.69
We reformulate LST M2 with the weights and biased vectors corresponding to the least loss among L epochs. LST M2をLエポック間の最小損失に対応する重みと偏りベクトルで再構成する。 0.72
Finally, we redefine LST M1 as LST M2 and proceed to the (t + 2)-th iteration. 最後に LST M1 を LST M2 として再定義し、 (t + 2)-次反復に進む。 0.83
Algorithm 1 summarizes the training and prediction procedure of our sequentially trained many-to-one LSTM scheme. アルゴリズム1は、逐次訓練された多対一LSTMスキームのトレーニングと予測手順を要約する。 0.67
Figure 3: Non-convex behavior of the loss function. 図3: 損失関数の非凸挙動。 0.72
We apply our training scheme to train an LSTM with closing prices of the Apple stock. 我々は、Apple株の終値でLSTMをトレーニングするためにトレーニングスキームを適用します。 0.75
We input a sequence of 1227 days of prices into the LSTM and generate the price for the 1228-th day. LSTMに1227日間の価格を入力し、1228日の価格を生成する。 0.53
The loss is computed as the relative mean square error between the predicted price and the observed prices for the 1228-th day. 損失は、予測価格と観測された1228日の価格との相対平均二乗誤差として計算される。 0.82
We proceed with this single-day training 60 times, also called epochs, where the loss for the l-th epoch is denoted as L(t) 我々は、この1日のトレーニングを60回行う。これはエポックとも呼ばれ、l番目のエポックの損失をl(t)と表記する。
訳抜け防止モード: 私たちはこの1日制のトレーニングを60回進めます。 l - th epoch の損失は L(t) と表される
0.68
. l 2.3. . うーん 2.3. 0.41
State-of-the-art methods Here, we present three state-of-the-art time series prediction methods, namely, extended Kalman filter (EKF), autoregression, and autoregressive integrated moving average (ARIMA), that we use to validate the performance of our LSTM scheme. 最先端の方法 本稿では,拡張カルマンフィルタ(EKF),自己回帰,自己回帰統合移動平均(ARIMA)の3つの最先端時系列予測手法を提案する。
訳抜け防止モード: 最先端の方法 ここでは,3つの状態----アート時系列予測法を示す。 すなわち、拡張カルマンフィルタ(EKF)、自動回帰である。 自己回帰統合移動平均(ARIMA)は LSTM方式の性能評価に使用する。
0.54
Here, we utilize the same sequential training as we did for LSTMs to make real-time predictions on the same financial time series. ここでは、LSTMと同じシーケンシャルトレーニングを用いて、同じ金融時系列上でリアルタイムな予測を行う。 0.74
2.3.1. Extended Kalman Filter (EKF) 2.3.1. 拡張カルマンフィルタ(EKF) 0.43
EKF is a nonlinear version of the standard Kalman filter where the formulation of EKF is based on the linearization of both the state and the observation equations. EKFは標準カルマンフィルタの非線形バージョンであり、EKFの定式化は状態と観測方程式の両方の線形化に基づいている。 0.82
In an EKF, the state Jacobian and the measurement Jacobian replace the state transition matrix and the measurement matrix, respectively, of a linear KF (Valade et al (2017)). EKF では、状態ヤコビアンと測定ヤコビアンはそれぞれ、線形 KF (Valade et al (2017)) の状態遷移行列と測定行列を置き換える。 0.55
This process essentially linearizes the non-linear function around the current estimate. この過程は本質的に現在の推定値の周りの非線形関数を線型化する。 0.61
Linearization enables the propagation of both the state and state covariance in an approximately linear format. 線形化により、状態と状態の共分散をほぼ線形形式で伝播することができる。 0.72
Here, the extended Kalman filter is presented in three steps, namely, dynamic process, model forecast step, and data assimilation step. ここでは、拡張Kalmanフィルタを動的プロセス、モデル予測ステップ、データ同化ステップという3つのステップで示す。 0.71
Dynamic Process. Here, we present both the state model and the observation model of a nonlinear dynamic process. 動的プロセス。 本稿では,非線形動的プロセスの状態モデルと観測モデルの両方を示す。 0.80
The current state, x(t+1), is modeled as a sum of the nonlinear function of the previous state, x(t), and the noise, w(t), as 現在の状態 x(t+1) は、前の状態 x(t) の非線形関数の和としてモデル化され、ノイズ w(t) は、 0.72
(7) where x(t), w(t) ∈ Rn. (7) ここで x(t), w(t) ∈ Rn である。 0.86
Here, the random process {w(t)} is Gaussian white noise with zero mean and covariance matrix of Q(t) = E . ここで、ランダム過程 {w(t)} は平均がゼロで Q(t) = E の共分散行列を持つガウスホワイトノイズである。 0.81
The initial state x(0) is a random vector with known mean 初期状態 x(0) は既知の平均を持つランダムベクトルである 0.84
µ0 = E(cid:0)x(0)(cid:1) and covariance P (0) = E(cid:2)(x(0) − µ0)(x(0) − µ0)T(cid:3). μ0 = E(cid:0)x(0)(cid:1) および共分散 P(0) = E(cid:2)(x(0) − μ0)(x(0) − μ0)T(cid:3) である。 0.87
The Jacobian of the predicted state with 予測された状態のジャコビアン 0.74
w(t)(cid:0)w(t)(cid: 1)T(cid:105) w(t)(cid:0)w(t)(cid: 1)T(cid:105) 0.45
respect to the previous state, denoted as Jf , is obtained by partial derivatives as Jf = fx(·). 前の状態に関して、Jf と表記され、偏微分によって Jf = fx(·) となる。 0.67
(cid:104) (cid:16) (cid:104) (出典:16) 0.53
x(t)(cid:17) x(t)(cid:17) 0.47
x(t+1) = f x(t+1) = f 0.46
+ w(t), 8 w(t) である。 8 0.50
0102030405060051015 0102030405060051015 0.43
英語(論文から抽出)日本語訳スコア
Algorithm 1 : Many-to-one LSTM architecture with sequential training. アルゴリズム1 : シーケンシャルトレーニング付き多対一LSTMアーキテクチャ 0.75
Denotation: x(t), . . . , x(T ), ˆx(T +1), . . . , ˆx(T +t−2)(cid:105) (cid:104) Input: training time series(cid:0)(cid:2) x(1), . . . , x(T )(cid:3)(cid:1); forecast length (N ); number of maximum epochs (L). 表記 x(t), . . . . , x(T ), , x(T +1), . . . , .x(T +t−2) (cid:105) (cid:104) 入力: トレーニング時間列(cid:0)(cid:2)x(1), . . . , x(T )(cid:3) (cid:1); 予測の長さ(N); 最大エポック数(L)。 0.60
X (1) and X (t) X(1) と X (t) 0.59
= = (cid:2)x(1), . . . , x(T−1)(cid:3), X (2) ˆx(T +1), . . . , ˆx(T +N )(cid:105)(cid:17) (cid:16)(cid:104) = = (cid:2)x(1), . . , x(T−1)(cid:3), X (2) .x(T +N))(cid:105)(cid:17) (cid:16)(cid:104) 0.43
for 3 ≤ t ≤ N + 1. 3 ≤ t ≤ N + 1 である。 0.85
(cid:2)x(2), . . . , x(T )(cid:3), (cid:2)x(2), . , x(T )(cid:3) 0.41
Output: time series forecast ; trained LST M (LST M1 or LST M2). 出力:時系列予測 ; LST M (LST M1 or LST M2) を訓練した。 0.77
= 1: Initialization: two LST M s, denoted as LST M1 and LST M2, with the weights Wf = Wi = Wc = Wo = 0 = 1:初期化: LST M を LST M1 と LST M2 と表記し、重量 Wf = Wi = Wc = Wo = 0 とする。 0.65
and biased vectors bf = bi = bc = bo = h(0) = 0. そしてバイアスベクトル bf = bi = bc = bo = h(0) = 0 である。 0.86
2: for t ∈ [1, N + 1] do 2: t ∈ [1, n + 1] の場合 0.78
for l ∈ [1, L] do l ∈ [1, L] に対して 0.88
(cid:16) X (t)(cid:17) (cid:13)(cid:13)(cid :13)ˆx(T +t−1) − x(T +t−1)(cid:13)(cid:13)(c id:13)2 (出典:16) X (t)(cid:17) (cid:13)(cid:13)(cid :13) =x(T +t−1) − x(T +t−1)(cid:13)(cid:13)(c id:13) 0.52
Compute ˆx(T +t−1) = LST M1 Minimize L(t) F using BTT with respect to the weights Wi, Wi, Wc, and Wo, and bias vectors bf , bi, bc, and bo of the composite representation of the functions in Eqns. x(t + t−1) = lst m1 を計算し、重み wi, wi, wc, wo に対して btt を用いて l(t) f を最小化し、eqns における関数の複合表現のバイアスベクトル bf , bi, bc, bo を計算する。 0.74
(1), (2), (3), (4), and (5). (1), (2), (3), (4), and (5). 0.35
Record L(t) Update the weights and bias vectors of LST M1 using the gradient descent-based method ADAM. 記録L(t)勾配降下法ADAMを用いてLST M1の重みとバイアスベクトルを更新する。
訳抜け防止モード: Record L(t ) Update the weights and bias vectors of LST M1 勾配降下 - Based method ADAM を使用する。
0.91
along with Wi, Wi, Wc, Wo, bf , bi, bc, and bo. Wi, Wi, Wc, Wo, bf , bi, bc, boとともに。 0.78
according to the map in Fig 2(a). 図2(a)の地図によると、 0.59
(cid:46)(cid:13)(cid :13)x(T +t−1)(cid:13)(cid:13)2 (cid:46)(cid:13)(cid :13)x(T +t−1)(cid:13)(cid:13)2 0.37
l = F l end for Reformulate LST M2 with Wi, Wi, Wc, Wo, bf , bi, bc, and bo corresponding to the least Replicate LST M2 and define it as LST M1. l= F うーん Wi, Wi, Wc, Wo, bf , bi, bc, bo で LST M2 をリフォームし、最小リプリケート LST M2 に対応して LST M1 と定義する。 0.53
Forecast for (T + t)-th time step, i.e., ˆx(T +t) = LST M1 t + t)-番目の時間ステップの予測、すなわち、x(t + t) = lst m1 0.76
X (t+1)(cid:17) X (t+1)(cid:17) 0.39
(cid:16) (cid:110) (出典:16) (第110回) 0.64
L(t) l (複数形 ls) 0.55
l (cid:111) うーん (出典:111) 0.58
(cid:12)(cid:12)(cid :12) ∀l (cid:12)(cid:12)(cid :12) 0.33
. 3: 4: 5: . 3: 4: 5: 0.43
6: 7: 8: 9: 6: 7: 8: 9: 0.43
10: 11: 12: end for 10: 11:12: 終了 0.51
and the noise, v(t+1), as 雑音 v(t+1) は 0.57
(cid:16) x(t)(cid:17) (出典:16) x(t)(cid:17) 0.57
The current observation, y(t+1), is modeled as a sum of the nonlinear function of the current state, x(t+1), 現在の観測値 y(t+1) は、電流状態 x(t+1) の非線形関数の和としてモデル化される。 0.87
(8) where y(t+1), v(t+1) ∈ Rn. (8) ここで y(t+1), v(t+1) ∈ Rn となる。 0.82
Here, the random process {v(t+1)} is Gaussian white noise with zero mean and covariance matrix of R(t) = E . ここで、ランダム過程 {v(t+1)} は r(t) = e の平均と共分散行列がゼロのガウス白色雑音である。 0.79
The Jacobian of the predicted observation with respect to the previous state, denoted as Jh, is obtained by partial derivatives as Jh = hx(·). 前の状態に関する予測された観測のジャコビアンは jh と表記され、部分微分によって jh = hx(·) として得られる。 0.67
v(t)(cid:0)v(t)(cid: 1)T(cid:105) v(t)(cid:0)v(t)(cid: 1)T(cid:105) 0.45
(cid:104) y(t) = h (cid:104) y(t) = h 0.41
+ v(t), Model Forecast Step. v(t) である。 モデル予測ステップ。 0.69
The state Jacobian and the measurement Jacobian replace linear KF’s state transition matrix and the measurement matrix, respectively Valade et al (2017). 状態ジャコビアンと測定ジャコビアンはそれぞれ線形 kf の状態遷移行列と測定行列を置き換え、それぞれ valade et al (2017) である。 0.66
Let, the initial estimates of the state and the covariance are x(0|0) and P (0|0), respectively. 状態の初期推定値と共分散値はそれぞれ x(0|0) と p(0|0) である。 0.78
The state and the covariance matrix are propagated to the next step using 状態と共分散行列は次のステップに伝播される 0.68
ˆx(t+1) ≈ f f (複数形 fs または fs) 0.41
(cid:16) P (t)(cid:104) (cid:16)P(t)(cid:104 ) 0.42
ˆx(t)(cid:17) (cid:16) ˆx(t)(cid:17)(cid:105 )T x(t)(cid:17) (cid:16) (cid:17)(cid:105)t 0.45
Jf + Q(t), JF q(t) である。 0.44
and respectively. (cid:16) ˆx(t)(cid:17) そして それぞれ。 (出典:16)x(t)(出典:17) 0.68
P (t+1) = Jf P (t+1) = Jf 0.46
Data Assimilation Step. データ同化ステップ。 0.63
The measurement at the t + 1 step is given by t + 1 ステップにおける測定は 0.65
(cid:16) ˆx(t+1)(cid:17) (出典:16) x(t+1)(cid:17) である。 0.60
y(t+1) ≈ h y(t+1) は h である。 0.60
9 (9) (10) 9 (9) (10) 0.42
(11) (11) 0.43
英語(論文から抽出)日本語訳スコア
Use the difference between the actual measurement and the predicted measurement to correct the state at the t + 1 step. 実際の測定値と予測された測定値の差を使って、t + 1 ステップの状態を補正する。 0.81
To correct the state, the filter must compute the Kalman gain. 状態を修正するには、フィルタはカルマンゲインを計算する必要がある。 0.67
First, the filter computes the measurement prediction covariance (innovation) as まず、フィルタは測定予測共分散(イノベーション)を計算する。 0.71
Then, the filter computes the Kalman gain as そして、フィルタはカルマンゲインを計算する。 0.71
x(t+1)(cid:17) (cid:16) = P (t+1)(cid:104) x(t+1)(cid:17) (cid:16) = P (t+1)(cid:104) 0.39
S(t+1) = Jh S(t+1) = Jh 0.46
K (t+1) k (複数形 ks) 0.48
g The filter corrects the predicted estimate by using observation. g フィルタは、観測により予測された推定値を補正する。 0.54
The estimate, after the correction using the observation y(t+1), is 観測値 y(t+1) を用いた補正後の推定値は 0.80
Jh + R(t+1) JH + R(t+1) 0.40
x(t+1)(cid:17)(cid:105) P (t+1)(cid:104) (cid:16) S(k+1)(cid:105)−1 x(t+1)(cid:17)(cid:105)T (cid:104) (cid:16) x(t+1)(cid:17)(cid:105) (cid:16) ˆx(t+1)(cid:17)(cid:105) x(t+1)(cid:17)(cid:105) P (t+1)(cid:104) (cid:16) S(k+1)(cid:105)−1 x(t+1)(cid:17)(cid:105)T (cid:104) (cid:16) x(t+1)(cid:17)(cid:105) (cid:16) ^x(t+1)(cid:17)(cid:105) 0.37
y(t+1) − h y(t+1) − h 0.46
P (t+1) p (複数形 ps) 0.49
(cid:16) Jh (出典:16) JH 0.52
ˆx(t+1) = x(t+1) + K (t+1)(cid:104) x(t+1) = x(t+1) + K(t+1)(cid:104) 0.39
(cid:104) P (t+1) = (cid:104) P (t+1) = 0.42
I − K (t+1) I − K (t+1) 0.46
g Jh (12) (13) g JH (12) (13) 0.41
(14) The corrected state is often called the a posteriori estimate of the state, because it is derived after including the observation. (14) 修正された状態はしばしば、観測を含ませた後に導かれるため、状態の後方推定と呼ばれる。 0.62
2.3.2. Autoregression (AR) model 2.3.2. 自己回帰(AR)モデル 0.53
Many observed time series exhibit serial autocorrelation which is known to be the linear association between lagged observations. 多くの観測時系列は連続的な自己相関を示しており、これはラベル付き観測の線形関連であることが知られている。
訳抜け防止モード: 多くの観測時系列は連続的な自己相関を示す ラベル付き観測の 線形関係が知られています
0.76
The AR model predicts the value for the current time step, x(t), based on a linear relationship between p-recent observations, x(t−1), x(t−2), . . . , x(t−p), where this p is known as the order of the model Geurts et al (1977). ARモデルは、このpがモデルGeurts et al (1977) の順序として知られている場合、p-Recent Observation, x(t−1), x(t−2), . . , x(t−p) の間の線形関係に基づいて、現在の時間ステップ x(t) の値を予測する。 0.87
Let, α1, . . . , αp ∈ R are the coefficients, order p AR model is given by α1, . . , αp ∈ R を係数とし、次数 p AR モデルを与えられる。 0.80
x(t) = c + α1x(t−1) + α2x(t−2) + ... + αpx(t−p) + (t), x(t) = c + α1x(t−1) + α2x(t−2) + ... + αpx(t−p) + s(t) である。 0.76
(15) where (t) is uncorrelated noise with a zero mean. (15) であり、これはゼロ平均と相関しない雑音である。 0.69
Let, the lag operator polynomial notation is Lix(t) = x(t−i). ラグ作用素多項式表記法を lix(t) = x(t−i) とする。 0.64
We define order p autoregression lag operator polynomial as α(L) = (1− α1L−···− αpLp). 次数 p の自己回帰ラグ作用素多項式を α(L) = (1− α1L−····− αpLp) と定義する。 0.55
Thus, AE model is given by したがって、AEモデルは与えられる。 0.75
The solution for the AR model is given by ARモデルの解決策は 0.51
x(t) = α−1(L) x(t) = α−1(L) 0.49
(cid:16) c + (t)(cid:17) (出典:16) c + s(t)(cid:17) 0.58
. α(L)x(t) = c + (t). . α(L)x(t) = c + s(t) である。 0.65
(16) (17) 2.3.3. (16) (17) 2.3.3. 0.37
Autoregressive integrated moving average (ARIMA) model 自己回帰統合移動平均(ARIMA)モデル 0.80
ARIMA model is made by combining a differential version of AR model into a moving average (MA) model. ARIMAモデルは、ARモデルの微分バージョンを移動平均(MA)モデルに組み合わせて作られる。
訳抜け防止モード: ARIMAモデルは作られています ARモデルの微分バージョンを移動平均(MA)モデルに結合する。
0.86
MA model captures serial autocorrelation in a time series x(1), . . . , x(t), . . . , x(T ) by expressing the conditional mean of x(t) as a function of past innovations, at(), a(t−1), ..., a(t−q). MAモデルは、過去の革新の関数at() a(t−1), ..., a(t−q) として x(t) の条件平均を表現することにより、時系列 x(1), . . , x(t), . . . , x(T ) におけるシリアル自己相関を捉える。 0.85
An MA model that depends on q past innovations is called an MA model of order q, denoted by MA(q). q の過去の革新に依存する MA モデルは、MA(q) で表される位数 q の MA モデルと呼ばれる。 0.79
In general, the MA(q) model can be represented by the formula 一般に、ma(q)モデルは公式によって表現できる 0.73
x(t) = µ + a(t) + β1a(t−1) + ... + βqa(t−q), x(t) = μ + a(t) + β1a(t−1) + ... + βqa(t−q) である。 0.79
(18) where a(t)’s are uncorrelated innovation processes with a zero mean and µ is the unconditional mean of x(t) for all t. (18) a(t) はゼロ平均を持つ無相関な革新過程であり、μ はすべての t に対する x(t) の無条件平均である。 0.60
10 10 0.42
英語(論文から抽出)日本語訳スコア
For some observed time series, a higher order AR or MA model is needed to capture the underlying process well. いくつかの観測時系列では、基礎となるプロセスをうまく捉えるために高次ARまたはMAモデルが必要である。 0.70
In this case, a combined ARMA model can sometimes be a parsimonious choice. この場合、組み合わせたARMAモデルは、時には同義的な選択である。 0.70
An ARMA model expresses the conditional mean of x(t) as a function of both recent observations, x(t−1), x(t−2), . . . , x(t−p), and recent innovations, a(t), a(t−1), . . . , a(t−q). ARMAモデルは、x(t−1), x(t−2), . . , x(t−p) および最近の革新、a(t), a(t−1), . . . , a(t−q) の両方の関数として x(t) の条件平均を表現する。 0.85
The ARMA model with AR degree of p and MA degree of q is denoted by ARMA (p, q), which is given by AR次数 p と MA次数 q の ARMA モデルは、ARMA (p, q) で表される。 0.59
x(t) = c + α1x(t−1) + α2x(t−2) + ··· + αpx(t−p) +β0a(t) + β1a(t−1) + ··· + βqa(t−q), x(t) = c + α1x(t−1) + α2x(t−2) + ···· + αpx(t−p) + β0a(t) + β1a(t−1) + ···· + βqa(t−q) である。 0.68
(19) Shumway & Stoffer (2017). (19) shumway & stoffer (2017) を参照。 0.55
The ARIMA process generates nonstationary series that are integrated of order D where that nonstationary process can be made stationary by taking D differences. ARIMA 過程は位数 D と統合された非定常級数を生成するが、非定常級数は D の差を取ることで定常にすることができる。
訳抜け防止モード: ARIMAプロセスは非定常級数を生成する D の差分を取ることで非定常過程を定常にすることができる。
0.61
A series that can be modeled as a stationary ARMA(p, q) process after being differenced D times is denoted by ARIMA(p, D, q), which is given by D 時間が異なる後、静止 ARMA(p, q) プロセスとしてモデル化できる級数は ARIMA(p, D, q) で表される。 0.65
∆Dx(t) = µ + α1∆Dx(t−1) + α2∆Dx(t−2) + ... + αp∆Dx(t−p) +a(t) − β1a(t−1) − β2a(t−2) − ... − βqa(t−q), t) = μ + α1-Dx(t−1) + α2-Dx(t−2) + ... + αp-Dx(t−p) +a(t) − β1a(t−1) − β2a(t−2) − ... − βqa(t−q) 0.34
(20) where ∆Dx(t) denotes a D-th differential time series, a(t)’s are uncorrelated innovation processes with a zero mean, and µ is the unconditional mean of x(t) for all t (Newbold, 1983). (20) Dx(t) が D 番目の微分時間列を表すとき、a(t) はゼロ平均を持つ非相関な革新過程であり、μ はすべての t に対する x(t) の非条件平均である(Newbold, 1983)。 0.61
With the lag operator Lix(t) = x(t−i), the ARIMA model can be written as ラグ作用素 Lix(t) = x(t−i) で、ARIMA モデルは書ける。 0.59
(21) where α(L) = (1 − α1L − ··· − αpLp) and β(L) = (1 + β1L + ··· + βqLq). (21) α(L) = (1 − α1L − ··· − αpLp) と β(L) = (1 + β1L + ·· + βqLq) である。 0.88
Thus, the solution for ARIMA model is given by したがって、ARIMAモデルの解は与えられる。 0.63
α(L)(1 − L)Dx(t) = c + β(L)a(t) α(L)(1 − L)Dx(t) = c + β(L)a(t) 0.42
(cid:16) α(L)(1 − L)D(cid:17)−1(cid:16) (出典:16) α(L)(1 − L)D(cid:17)−1(cid:16) 0.57
c + β(L)a(t)(cid:17) c + β(L)a(t)(cid:17) 0.49
. (22) 3. Performance Analysis . (22) 3.性能分析 0.56
x(t) = The performance analysis of LSTM is conducted using nine financial time series obtained from three markets, namely, stocks, cryptocurrencies, and commodities. x(t) = LSTMの性能分析は、株式、暗号通貨、商品という3つの市場から得られた9つの金融時系列を用いて行われる。 0.56
We chose Apple, Google, and Microsoft for stocks; Bitcoin, Ethereum, Cardano for cryptocurrencies; and Gold, Oil, and Natural Gas for commodities. 株価はApple、Google、Microsoft、仮想通貨はBitcoin、Ethereum、Cardano、商品はゴールド、オイル、天然ガスを選択しました。
訳抜け防止モード: 私たちはapple、google、microsoftを株、bitcoin、ethereum、cardanoを暗号通貨に選んだ。 商品用の金、石油、天然ガスなどです
0.81
These diverse examples validate the broad applicability of LSTMs in analyzing and predicting financial time series. これらの多様な例は、金融時系列の分析および予測におけるLSTMの広範な適用性を検証する。 0.66
We follow the procedure given in Fig 1 to train the real-time many-to-one LSTM architecture given in Fig. 我々は、fig 1で与えられた実時間多対一lstmアーキテクチャを訓練する手順に従う。
訳抜け防止モード: 第1図の手順に従います Figで与えられた1つのLSTMアーキテクチャをトレーニングする。
0.67
2. Setting the LSTM to run for a specific number of epochs and then using that trained network to make predictions often do not perform the best training and then do not perform accurate predictions since the loss function undergoes semi-convergence as shown in Fig 3. To avoid this issue; first, we train the LSTM for 100 epochs; second, we compute the best number of epochs associated with the least loss; and finally, train again a new LSTM with that many epochs. 2. lstmを特定の数のエポックで実行するように設定し、そのトレーニングされたネットワークを使用して予測を行うと、ベストトレーニングを行なわないことが少なく、損失関数が図3に示すようにセミコンバージェンスになるため正確な予測ができないこと、第1に、100エポックでlstmをトレーニングすること、第2に、最小ロスに関連する最良エポック数を計算すること、第2に、その最少損失に関連する新しいlstmをトレーニングすること、第2に、そのエポック数をトレーニングすること。
訳抜け防止モード: 2.特定のエポック数に対してLSTMを実行するように設定する。 トレーニングされたネットワークを使って 最高のトレーニングを行わないことが多いのです 正確な予測はしません 損失関数は図3に示すように半収束する。 この問題を避けるために まず、LSTMを100エポックでトレーニングします。 第2に、最小損失に関連するエポックの最適数を計算します。 そして最後に、多くのエポックで新しいLSTMを再びトレーニングします。
0.68
Moreover, the parameter choices for the training length and prediction length are shown in Table 3. さらに、トレーニング長と予測長のパラメータ選択を表3に示す。 0.60
Now, we incorporate the same one-day recursive prediction procedure in Fig 1 into the other three stateof-the-art methods, namely, EKF, AR, and ARIMA, to predict the above financial time series. 本稿では,fig 1における1日再帰的予測手順を,他の3つの最先端手法であるekf,ar,arimaに組み込んで,上記の金融時系列の予測を行う。 0.74
After a trial and error process, we found that the best p’s of AR are 300, 400, and 400, for Apple, Microsoft, and Google, respectively; and the best (p, D, q)’s of ARIMA are (10, 0, 2), (10, 2, 1), and (0, 1 , 1), for Apple, Microsoft, and Google, respectively. 試行錯誤の結果、ARの最良のpは、Apple、Microsoft、Googleでそれぞれ300、400、400であり、ARIMAのベスト(p、D、q)は、Apple、Microsoft、Googleでそれぞれ10、0、2)、(10、2、1)、(0、1、1)であることがわかった。
訳抜け防止モード: 試行錯誤の結果、arの最高のpは、それぞれapple、microsoft、googleの300、400、そして400であることが判明した。 そして、有馬の最高値 (p, d, q) は (10, 0, 2) である。 ( 10, 2, 1 ), and ( 0, 1, 1 ), apple(アップル)、microsoft(マイクロソフト)、google(グーグル)それぞれ。
0.69
Then, the best p’s of AR were found to be 100, 100, and 300, for Bitcoin, Ethereum, そして、最高のp’s of arは、bitcoin、ethereumで100、100、300であることが判明した。 0.77
11 11 0.43
英語(論文から抽出)日本語訳スコア
time series time + series 0.37
Training length Prediction length トレーニング長さ予測時間 0.81
Apple Microsoft Google Apple Microsoft Google 0.42
Bitcoin Ethereum Cardano Bitcoin Ethereum Cardano 0.42
Oil Natural gas Gold 石油天然ガスゴールド 0.80
(T ) 1228 1228 1228 (T) 1228 1228 1228 0.42
1064 1064 1064 1064 1064 1064 0.42
8248 5802 816 8248 5802 816 0.43
(N ) 30 30 30 (N) 30 30 30 0.41
30 30 30 200 150 30 30 30 30 200 150 30 0.43
Table 3: Parameter choices for the training length, prediction length, and number of epochs used in real-time many-to-one LSTMs. 表3: リアルタイム多対一LSTMで使用されるトレーニング長、予測長、エポック数のパラメータ選択。 0.68
and Cardano, respectively; and the best (p, D, q)’s of ARIMA were found to be (6, 0, 2), (6, 1, 1), and (8, 2 , 1), for Bitcoin, Ethereum, and Cardano, respectively. それぞれ (6, 0, 2), (6, 1, 1) および (8, 2 , 1) の ARIMA の最高値 (p, D, q) はそれぞれ (6, 0, 2), (6, 1, 1) と (8, 2 , 1) であった。
訳抜け防止モード: カルダーノ, ベスト (p, d, ) q) アリマの値 (6, 0, 2) は (6, 0, 2) であることが判明した。 ( 6, 1, 1 ), and ( 8, ビットコイン、ethereum、cardanoそれぞれは2.2.1ドルだ。
0.73
Finally, the best p’s of AR were 200, 200, and 100, for Oil, Natural gas, and Gold, respectively; and the best (p, D, q)’s of ARIMA were (4, 1, 1), (10, 1, 2), and (8, 2 , 0), for Oil, Natural gas, and Gold, respectively. 最後に、arの最高pは石油、天然ガス、金の200,200,100であり、有馬の最高p(p,d,q)は、それぞれ(4,1,1,10,1,2,0)、石油、天然ガス、金の8,2,0である。
訳抜け防止モード: そして最後に、ARの最高のpは、石油、天然ガス、金の200、200、100だった。 ARIMA の最高 (p, D, q ) は (4。 1, 1 ), ( 10, 1, 2 ), 油,天然ガス,金については,それぞれ8,2,0)であった。
0.62
Thus, we set the methods with the best parameter values and executed them with the corresponding time series. そこで,提案手法を最適なパラメータ値に設定し,対応する時系列で実行した。 0.81
We compute the mean of the relative absolute difference between the predicted and the observed time 予測時間と観測時間との相対絶対差の平均を計算する。 0.67
series for the prediction period using T +N(cid:88) 予測期間の時系列 T +N (cid:88) 0.50
t=T +1 E = 1 N t=T+1 E = 1N 0.36
(cid:13)(cid:13)ˆx(t) − x(t)(cid:13)(cid:13) 2 (cid:13)(cid:13)x(t) (cid:13)(cid:13)2 (cid:13)(cid:13)-x(t )(cid:13)(cid:13)2(c id:13)(cid:13)x(t)(c id:13)(cid:13)2 0.44
, (23) as an error measure of the prediction that we show in Table 4. , (23) 表4に示す予測の誤差尺度として 0.48
Hereby, we observe that the order of the best to the worst prediction performance is LSTM, EKF, AR, and ARIMA. これにより,最良予測性能の順はLSTM,EKF,AR,ARIMAであることがわかった。
訳抜け防止モード: ここで、我々はそれを観察する。 最悪の予測性能のベストの順は、LSTM、EKF、AR、ARIMAである。
0.67
Fig. 4 shows the price predictions of the three stocks, Apple, Microsoft, and Google, using our realtime many to one LSTM, EKF, AR, and ARIMA. 図4は、当社のリアルタイム数からLSTM、EKF、AR、ARIMAの3つの株の価格予測を示しています。 0.57
Since some of the predictions closely mimic the observed time series to overlap, we compute the absolute difference between the observations and the predictions, see Figs. いくつかの予測は観測された時系列と重なり合うように密接に模倣するため、観測と予測の絶対差を計算する。 0.76
4(c), 4(f), and 4(i). 4(c), 4(f), 4(i) である。 0.71
We observe that all four methods are capable of capturing the pattern of the time series with the order of the best to the worst prediction performance is LSTM, ARIMA, AR, and EKF. 我々は,4つの手法すべてにおいて,最良から最悪の予測性能の順で時系列のパターンをキャプチャできるのがlstm,arima,ar,ekfであることを確認した。 0.67
Moreover, while LSTM and ARIMA perform similarly good, EKF and AR perform similarly weak. さらに、LSTMとARIMAも同様に優れているが、EKFとARも同様に弱い。 0.74
Fig. 5 shows the price predictions of the three cryptocurrencies, Bitcoin, Ethereum, and Cardano, using LSTM, EKF, AR, and ARIMA. 第5図は、LSTM、EKF、AR、ARIMAを使用して、3つの暗号通貨、Bitcoin、Ethereum、Cardanoの価格予測を示す。 0.80
Since some of the predictions closely mimic the observed time series to overlap, we compute the absolute difference between the observations and the predictions, see Figs. いくつかの予測は観測された時系列と重なり合うように密接に模倣するため、観測と予測の絶対差を計算する。 0.76
4(c), 4(f), and 4(i). 4(c), 4(f), 4(i) である。 0.71
We observe that LSTM, ARIMA, and AR are capable of capturing the pattern of the time series in contrast to the weak prediction of EKF. LSTM、ARIMA、ARは、EKFの弱い予測とは対照的に、時系列のパターンを捉えることができる。
訳抜け防止モード: 我々はLSTM、ARIMA、ARが可能であることを観察する。 EKFの弱い予測とは対照的に時系列のパターンを捉える。
0.74
The order of the best to the worst prediction performance is LSTM, AR, ARIMA, and EKF. 最悪の予測性能のベストの順は、LSTM、AR、ARIMA、EKFである。 0.57
Fig. 6 shows the price predictions of the three commodities, Oil, Natural gas, and Gold, using LSTM, EKF, AR, and ARIMA. 第6図は、LSTM、EKF、AR、ARIMAを用いて、3つの商品、石油、天然ガス、金の価格予測を示す。 0.72
We compute the absolute difference between the observations and the predictions, see Figs. 観測と予測の絶対的な差を計算する。 0.46
5(c), 5(f), and 5(i) since some of the predictions are similar to observations. 5(c), 5(f), 5(i)の予測は観測と類似している。 0.67
We observe that mostly LSTM, ARIMA, and AR are capable of capturing the pattern of the time series. 我々は、LSTM、ARIMA、ARが時系列のパターンを捉えることができることを観察する。 0.70
The order of the best to the worst prediction performance is LSTM, Ar, ARIMA, and EKF. 最悪の予測性能のベストの順は、LSTM、Ar、ARIMA、EKFである。 0.57
12 12 0.42
英語(論文から抽出)日本語訳スコア
Figure 4: Price prediction of three stocks, Apple (first row), Microsoft (second row), and Google (third row), using our real-time many to one LSTM (blue), EKF (yellow), AR (green), and ARIMA (purple). 図4:Apple(第一列)、Microsoft(第二列)、Google(第三列)の3つの株の価格予測では、リアルタイムの多数のLSTM(青)、EKF(黄色)、AR(緑)、ARIMA(紫)が使われています。 0.75
The first, second, and third columns show the entire time series, observed and predicted time series for the last 30 days of the prediction period, and the absolute difference between observed and predicted time series, respectively. 第1、第2、第3のコラムは、予測期間の最後の30日間の観測、予測された時系列全体の時系列と、観測された時系列と予測された時系列との絶対的な差を示す。
訳抜け防止モード: 第1、第2、第3の列は全時系列を示す。 予測期間の最後の30日間の観測と予測された時系列 観測された時系列と予測された時系列の絶対差は
0.81
We observe that the order of the best to the worst performance is LSTM, ARIMA, AR, and EKF. 最善の順はLSTM, ARIMA, AR, EKFである。 0.38
Note that some of the time series are not visible as they are covered by others. 時系列のいくつかは、他の人によってカバーされているため、見えていない。 0.60
13 03006009001200 13 03006009001200 0.64
(a)50100150200AppleT ime series0102030 (a)50100150200AppleT imeシリーズ0102030 0.85
(b)160165170175180Pr edictions versusObservedLSTMEK FARARIMA0102030 (b)160165170175180予測対観測LSTMEKFARARIMA010203 0 0.29
(c)012Absolute difference|Observed-LSTM||Observed-EKF||Observed-AR||Observed-ARIMA|03006009001200 (c)012Absolute difference|Observed-LSTM||Observed-EKF||Observed-AR|Observed-ARIMA|03006009001200 0.13
(d)20406080100Price (USD)Microsoft010203 0 (d)20406080100Price( USD)Microsoft0102030 0.48
(e)8590950102030 (e)8590950102030 0.42
(f)00.511.5030060090 01200 (f)00.511.5030060090 01200 0.33
(g)40060080010001200 Google0102030 (g)40060080010001200 Google0102030 0.41
(h)Time (day)105011001150120 00102030 (h)時間(日)1050110011501 2000102030 0.83
(i)0102030 (i)0102030 0.42
英語(論文から抽出)日本語訳スコア
Figure 5: Price prediction of three cryptocurrencies, Bitcoin (first row), Ethereum (second row), and Cardano (third row), using our real-time many to one LSTM (blue), EKF (yellow), AR (green), and ARIMA (purple). 図5: リアルタイムにLSTM(青)、EKF(黄)、AR(緑)、ARIMA(紫)の3つの暗号通貨の価格予測。
訳抜け防止モード: 図5:3つの暗号通貨、Bitcoin(1行目)の価格予測 Ethereum(2列目)、Cardinano(3列目) 実時間 - LSTM (Blue ) から 1 までの時間を使います。 EKF(黄色)、AR(緑)、ARIMA(紫)。
0.74
The first, second, and third columns show the entire time series, observed and predicted time series for the last 30 days of the prediction period, and the absolute difference between observed and predicted time series, respectively. 第1、第2、第3のコラムは、予測期間の最後の30日間の観測、予測された時系列全体の時系列と、観測された時系列と予測された時系列との絶対的な差を示す。
訳抜け防止モード: 第1、第2、第3の列は全時系列を示す。 予測期間の最後の30日間の観測と予測された時系列 観測された時系列と予測された時系列の絶対差は
0.81
We observe that the order of the best to the worst performance is LSTM, AR, ARIMA, and EKF. 最悪のパフォーマンスに対する最善の順番はlstm、ar、arima、ekfである。 0.36
Note that some of the time series are not visible as they are covered by others. 時系列のいくつかは、他の人によってカバーされているため、見えていない。 0.60
14 05001000 14 05001000 0.43
(a)0246Bitcoin104Tim e series0102030 (a)0246Bitcoin104Tim eシリーズ0102030 0.69
(b)44.55104Predictio ns versus observation ObservedLSTMEKFARARI MA0102030 (b)観測されたLSTMEKFARARIMA010203 0 0.70
(c)0100020003000Abso lute difference|Obseved-LSTM||Obseved-EKF||Obseved-AR||Obseved-ARIMA|05001000 (c)0100020003000Abso lute difference|Obseved-LSTM||Obseved-EKF||Obseved-AR||Obseved-ARIMA|05001000 0.13
(d)01000200030004000 Price (USD)Ethereum0102030 (d)01000200030004000 プライス(USD)Ethereum0102030 0.45
(e)25003000350001020 30 (e)25003000350001020 30 0.42
(f)01002003000500100 0 (f)01002003000500100 0 0.43
(g)0123Cardano010203 0 (g)0123Cardano010203 0 0.42
(h)Time (day)11.522.53010203 0 (h)時間(日)11.522.530102030 0.74
(i)00.10.20.3 (i)00.10.20.3 0.27
英語(論文から抽出)日本語訳スコア
Figure 6: Price prediction of three commodities, Oil (first row), Natural gas (second row), and Gold (third row), using our real-time many to one LSTM (blue), EKF (yellow), AR (green), and ARIMA (purple). 図6: リアルタイムのLSTM(青)、EKF(黄)、AR(緑)、ARIMA(紫)の3つの商品の価格予測(石油(第一列)、天然ガス(第二列)、金(第三列)。 0.66
The first, second, and third columns show the entire time series, observed and predicted time series for the last 30 days of the prediction period, and the absolute difference between observed and predicted time series, respectively. 第1、第2、第3のコラムは、予測期間の最後の30日間の観測、予測された時系列全体の時系列と、観測された時系列と予測された時系列との絶対的な差を示す。
訳抜け防止モード: 第1、第2、第3の列は全時系列を示す。 予測期間の最後の30日間の観測と予測された時系列 観測された時系列と予測された時系列の絶対差は
0.81
We observe that the order of the best to the worst performance is LSTM, AR, ARIMA, and EKF. 最悪のパフォーマンスに対する最善の順番はlstm、ar、arima、ekfである。 0.36
Note that some of the time series are not visible as they are covered by others. 時系列のいくつかは、他の人によってカバーされているため、見えていない。 0.60
15 02000400060008000 15 02000400060008000 0.42
(a)050100150OilTime series050100150200 (a)050100150OilTimeシリーズ050100150200 0.87
(b)020406080Predicti ons versus observationTrueLSTME KFARARIMA05010015020 0 (b)020406080 観測法と観測法の比較(050100150200) 0.43
(c)0510Absolute difference|Observed-LSTM||Observed-EKF||Observed-AR||Observed-ARIMA|0200040006000 (c)0510Absolute difference|Observed-LSTM||Observed-EKF||Observed-AR|Observed-ARIMA|0200040006000 0.13
(d)05101520Price (USD)Natural gas050100150 (d)05101520プライス(USD)自然ガス050100150 0.86
(e)1.522.5050100150 (e)1.522.5050100150 0.33
(f)00.050.10.150.202 00400600800 (f)00.050.10.150.202 00400600800 0.23
(g)0500100015002000G old0102030 (g)0500100015002000G old0102030 0.42
(h)Time (day)120014001600180 00102030 (h)時間(日)1200140016001800010 2030 0.80
(i)050100 (i)050100 0.42
英語(論文から抽出)日本語訳スコア
time series time + series 0.37
Apple Microsoft Google Apple Microsoft Google 0.42
Bitcoin Ethereum Cardano Bitcoin Ethereum Cardano 0.42
Oil Natural gas Gold 石油天然ガスゴールド 0.80
LSTM 5.9 ∗ 10−2 5.5 ∗ 10−2 3.5 ∗ 10−2 2.1 ∗ 10−1 1.8 ∗ 10−1 2.7 ∗ 10−1 1.5 ∗ 10−1 2.0 ∗ 10−1 7.7 ∗ 10−2 LSTM 5.9 ∗ 10−2 5.5 ∗ 10−2 3.5 ∗ 10−2 2.1 ∗ 10−1 1.8 ∗ 10−1 2.7 ∗ 10−1 1.5 ∗ 10−1 2.0 ∗ 10−1 7.7 ∗ 10−2 0.26
EKF 4.5 ∗ 10−1 4.2 ∗ 10−1 4.7 ∗ 10−1 2.7 ∗ 100 2.9 ∗ 100 4.3 ∗ 100 4.6 ∗ 100 3.4 ∗ 100 2.4 ∗ 100 EKF 4.5 ∗ 10−1 4.2 ∗ 10−1 4.7 ∗ 10−1 2.7 ∗ 100 2.9 ∗ 100 4.3 ∗ 100 4.6 ∗ 100 3.4 ∗ 100 2.4 ∗ 100 0.37
AR 2.5 ∗ 10−1 4.3 ∗ 10−1 4.7 ∗ 10−1 4.0 ∗ 10−1 8.1 ∗ 10−1 1.2 ∗ 100 6.3 ∗ 10−1 8.0 ∗ 10−1 1.2 ∗ 100 AR 2.5 ∗ 10−1 4.3 ∗ 10−1 4.7 ∗ 10−1 4.0 ∗ 10−1 8.1 ∗ 10−1 1.2 ∗ 100 6.3 ∗ 10−1 8.0 ∗ 10−1 1.2 ∗ 100 0.35
ARIMA 7.5 ∗ 10−2 6.3 ∗ 10−2 5.5 ∗ 10−2 3.8 ∗ 10−1 1.0 ∗ 100 1.7 ∗ 100 3.0 ∗ 10−1 1.0 ∗ 100 1.1 ∗ 100 ARIMA 7.5 ∗ 10−2 6.3 ∗ 10−2 5.5 ∗ 10−2 3.8 ∗ 10−1 1.0 ∗ 100 1.7 ∗ 100 3.0 ∗ 10−1 1.0 ∗ 100 1.1 ∗ 100 0.30
Table 4: This table shows the prediction error, quantified as the means of the relative difference between the predicted and the observed time series for the prediction period, of four methods LSTM, EKF, AR, and ARIMA. 表4: この表は、予測期間における予測時系列と観測時系列との相対的な差として定量化された予測誤差を示し、LSTM、EKF、AR、ARIMAの4つの方法である。 0.82
The analysis is conducted on three stocks Apple, Microsoft, and Google; three cryptocurrencies, Bitcoin, Ethereum, and Cardano; and three commodities, oil, natural gas, and gold. 分析は、apple、microsoft、googleの3つの株式、bitcoin、ethereum、cardanoの3つの暗号通貨、そして石油、天然ガス、金の3つの商品で行われている。 0.82
On average, LSTM performs 17 times better than EKF, 7 times better than AR, and 4 times better than ARIMA. 平均すると、LSTMはEKFの17倍、ARの7倍、ARIMAの4倍のパフォーマンスである。
訳抜け防止モード: 平均すると、LSTMはEKFの17倍、ARの7倍の性能がある。 ARIMAより4倍よい。
0.69
Moreover, the average prediction errors of LSTM are 0.05, 0.22, and 0.14 for stocks, cryptocurrencies, and commodities, respectively. さらに、LSTMの平均予測誤差は、株、仮想通貨、商品についてそれぞれ0.05、0.22、0.14である。
訳抜け防止モード: また,LSTMの平均予測誤差は0.05,0.22, 株、仮想通貨、商品はそれぞれ0.14ドル。
0.75
The performance of this real-time many-to-one LSTM is highly influenced by the number of epochs that it is executed. このリアルタイム多対一LSTMの性能は、実行されたエポックの数に大きく影響される。 0.71
To check this assertion, we compute the prediction performance of the LSTM with respect to different numbers of epochs for Apple, Bitcoin, and Gold. このアサーションをチェックするために、私たちは、Apple、Bitcoin、Goldのエポックの数が異なるLSTMの予測性能を計算します。 0.73
The prediction performance is computed as the mean of the relative absolute difference, i.e., E, between the prediction and the observed time series. 予測性能は、相対絶対差、すなわち、予測と観測された時系列との間の平均として計算される。 0.76
Since EKF, AR, and ARIMA are independent of epochs, we represent their E as a straight line. EKF、AR、ARIMAはエポックとは独立であるため、Eを直線として表現する。 0.66
We observe that the performance of LSTM improves from worst to the best when the number of epochs is increased. LSTMの性能は,エポック数の増加に伴って最悪のものから最高のものへと向上する。 0.68
4. Discussion The classical methods of solving temporal chaotic systems are mostly linear models which assume linear relationships between systems’ previous outputs for stationary time series. 4.討論 時間カオスシステムの古典的な解法は、主に定常時系列に対するシステムの以前の出力間の線形関係を仮定する線形モデルである。 0.60
Thus, they often do not capture non-linear relationships in the data and cannot cope with certain non-stationary signals. したがって、それらはしばしばデータの非線形関係を捉えず、特定の非定常信号に対応できない。 0.72
Because financial time series are often nonstationary, nonlinear, and contain noise (Bontempi et al , 2013), traditional statistical models encounter some limitations in predicting them with high precision. 金融時系列はしばしば非定常で非線形であり、ノイズを含んでいる(bontempi et al , 2013)ため、従来の統計モデルでは高い精度で予測するのにいくつかの制限がある。 0.67
In this paper, we have presented a real-time forecasting technique for financial markets using sequentially trained many-to-one LSTM. 本稿では,逐次的に訓練された多対一LSTMを用いて,金融市場を対象としたリアルタイム予測手法を提案する。 0.58
We applied this technique for some time series obtained from stock market, cryptocurrency market, and commodity market, then, compared the performance against three state-of-the-art methods, namely, EKF, AR, and ARIMA. 我々は、この手法を、株式市場、暗号通貨市場、商品市場から得られた時系列に応用し、その性能をEKF、AR、ARIMAの3つの最先端手法と比較した。 0.75
Here, we train a many-to-one LSTM with sequential data sampled using a moving window approach such that the succeeding window is shifted forward by one data instance from the preceding window. ここでは、移動ウィンドウアプローチを用いてサンプリングしたシーケンシャルデータを用いた多対一LSTMをトレーニングし、後続ウィンドウを先行ウィンドウから1つのデータインスタンスによって前進させる。 0.77
Such sequential window training plays an important role in time series predictions since it, このようなシーケンシャルなウィンドウトレーニングは、それ以来、時系列予測において重要な役割を果たす。 0.60
1) helps generate more data from a given limited time series and then thorough training of the ANN; 1) 指定された制限された時系列からより多くのデータを生成し、ANNの徹底的なトレーニングを支援する。 0.60
2) makes the data heterogeneous so that the overfitting issue of the ANN can be reduced; and 2)ANNの過度に適合する問題を軽減できるようにデータを異質にする。 0.64
3) facilitates the learning of patterns of the data not only for the entire time series but also for short segments of sequential data. 3) 時系列全体だけでなく,時系列データの短いセグメントについても,データのパターンの学習を容易にする。 0.88
Sequential window training 逐次ウィンドウトレーニング 0.70
16 16 0.42
英語(論文から抽出)日本語訳スコア
Figure 7: Prediction performance of the real-time many-to-one LSTM with respect to the different numbers of epochs. 図7:エポック数の異なる実時間多対一LSTMの予測性能。 0.61
The first row shows the mean of the relative absolute difference, denoted as E, between the prediction and the observed time series for Apple, Bitcoin, and Gold. 最初の行は、apple、bitcoin、およびgoldの予測と観測された時系列の間の相対的な絶対的な差の平均を示している。 0.78
Note that, EKF, AR, and ARIMA are independent of epochs; however, we represent a straight line for their E in the first row. 注意すべき点は、EKF, AR, ARIMA はエポックとは独立であるが、最初の行でそれらの E の直線を表すことである。 0.72
The second, the third, and the fourth rows show the prediction and the observed time series of the prices in the prediction periods of Apple, Bitcoin, and Gold for 10 epochs, 20 epochs, and 50 epochs, respectively. 第2行、第3行、第4行は、それぞれ10エポック、20エポック、50エポックの予測期間における、Apple、Bitcoin、およびゴールドの予測期間の予測と観測時系列を示している。 0.65
We observe that the performance of LSTM improves from worst to the best when the number of epochs is increased. LSTMの性能は,エポック数の増加に伴って最悪のものから最高のものへと向上する。 0.68
Note that some of the time series and plots are not visible as they are covered by others. 時系列とプロットのいくつかは、それらが他のものにカバーされているため、見えない。 0.61
17 01020304050 17 01020304050 0.43
(a)00.20.40.6Apple01 020304050 (a)00.20.40.6 Apple01020304050 0.23
(b)Epochs00.20.40.6B itcoinLSTMEKFARARIMA 0204060 (b)Epochs00.20.40.6B itcoinLSTMEKFARARIMA 0204060 0.21
(c)00.10.20.3Gold010 2030 (c)00.10.20.3Gold010 2030 0.23
(d)16017018010 epochsApple0102030 (d)16017018010 epochsApple0102030 0.50
(e)44.55104Bitcoin01 02030 (e)44.55104Bitcoin01 02030 0.33
(f)1000120014001600G old0102030 (f)1000120014001600g old0102030 0.41
(g)150160170180Price (USD)20 epochs0102030 (g)150160170180ドル(usd)20エポック0102030 0.89
(h)44.55104ObservedL STMEKFARARIMA0102030 (h)44.55104ObservedL STMEKFARARIMA0102030 0.33
(i)10001200140016000 102030 (i)10001200140016000 102030 0.42
(j)16017018050 epochs0102030 (j)16017018050 epochs0102030 0.50
(k)Time (day)44.551040102030 (k)時間(日)44.551040102030 0.44
(l)1000120014001600 (l)1000120014001600 0.42
英語(論文から抽出)日本語訳スコア
maximizes the performance of this LSTM as accelerates LSTM’s learning capability as well as it increases LSTM’s robustness to new data. このLSTMのパフォーマンスを最大化し、LSTMの学習能力を加速するとともに、新たなデータに対するLSTMの堅牢性を高める。 0.86
The performance analysis of this study covers the LSTM applied to nine time series obtained from three financial markets, stocks (Apple, Microsoft, Google), cryptocurrencies (Bitcoin, Ethereum, Cardano), and commodities (gold, crude oil, natural gas). 本研究の業績分析は、3つの金融市場(Apple, Microsoft, Google)、暗号通貨(Bitcoin, Ethereum, Cardano)、商品(金, 原油, 天然ガス)から得られた9つの時系列に適用されるLSTMを対象とする。 0.81
We observed that the LSTM performs exceptionally better than the other three methods for all the nine datasets where the performance of EKF was significantly weak. LSTMは,EKFの性能が著しく低かった9つのデータセットに対して,他の3つの手法よりも優れた性能を示した。 0.76
We have seen in Table 4, on average, LSTM performs 17 times better than EKF, 7 times better than AR, and 4 times better than ARIMA. 表4では、LSTMは平均してEKFの17倍、ARの7倍、ARIMAの4倍のパフォーマンスを実現しています。 0.60
The average prediction errors of LSTM are 0.05, 0.22, and 0.14 for stocks, cryptocurrencies, and commodities, respectively. LSTMの平均予測誤差は、それぞれ株、暗号通貨、商品について0.05、0.22、0.14である。 0.65
The reason for that is while the prediction on less volatile time series like in the stock market is easy, the prediction on high volatile time series like in the cryptocurrency market is challenging. その理由は、株式市場のような不安定な時系列の予測が簡単である一方で、暗号通貨市場のような不安定な時系列の予測は困難であるからだ。 0.76
In future work, we are planning to extend this sequentially trained many-to-one LSTM to employ as a realtime fault detection technique in industrial production processes. 今後, 産業生産プロセスにおけるリアルタイム故障検出技術として, 逐次的に訓練された多対一LSTMを拡張していく予定である。 0.74
This real-time fault detection scheme will be capable of producing an early alarm to alert a shift in the production process so the quality controlling team can take necessary actions. このリアルタイムの障害検出スキームは、生産プロセスのシフトを警告する早期アラームを生成し、品質管理チームが必要なアクションを取ることができる。 0.78
Moreover, trajectories of collectively moving agents can be represented on a low-dimensional manifold that underlies on a high-dimensional data cloud Gajamannage et al (2019); Gajamannage & Paffenroth (2021); Gajamannage et al (2015). さらに、集合移動エージェントの軌道は、高次元のデータクラウドgajamannage et al (2019)、gajamannage & paffenroth (2021)、gajamannage et al (2015) 上の低次元多様体上で表現することができる。 0.73
However, some segments of these trajectories are not tracked by multi-object tracking methods due to natural phenomena such as occlusions. しかしながら、これらの軌道の一部のセグメントは、オクルージョンのような自然現象のため、多目的追跡法によって追跡されない。 0.57
Thus, we are planning to utilize our LSTM architecture to make predictions for the fragmented segments of the trajectories. そこで我々はLSTMアーキテクチャを用いて,軌道の断片化されたセグメントの予測を行う。 0.80
We empirically validated that our real-time LSTM outperforms the performance of EKF, AR, and ARIMA. 実時間LSTMがEKF, AR, ARIMAの性能より優れていることを実証的に検証した。 0.60
In the future, we are planning to compare the performance of our real-time LSTM with that of the other famous ANN-based methods such as Facebook developed Prophet (Taylor & Letham, 2018), Amazon developed DeepAR (Salinas et al , 2020), Google developed Temporal Fusion Transformer (Lim et al , 2021), and Element AI developed N-BEATS (Oreshkin et al , 2019). 将来的には、当社のリアルタイムLSTMのパフォーマンスと、Facebookが開発したProphet(Taylor & Letham, 2018)、AmazonがDeepAR(Salinas et al , 2020)、GoogleがTemporal Fusion Transformer(Lim et al , 2021)、Element AIがN-BEATS(Oreshkin et al , 2019)といった、他の有名なANNベースの方法との比較を計画している。 0.86
Prophet was designed for automatic forecasting of univariate time series data. prophetは、不定時系列データの自動予測のために設計された。 0.59
DeepAR is a probabilistic forecasting model based on recurrent neural networks. DeepARは、リカレントニューラルネットワークに基づく確率予測モデルである。 0.84
Temporal Fusion Transformer is a novel attention-based architecture that combines high-performance multi-horizon forecasting with interpretable insights into temporal dynamics. テンポラリ融合トランス(temporal fusion transformer)は、高性能なマルチホライゾン予測と解釈可能な洞察を組み合わせた、新しい注意に基づくアーキテクチャである。
訳抜け防止モード: テンポラルフュージョントランスは注目に値するアーキテクチャ ハイパフォーマンスなマルチ水平予測と時間力学の解釈可能な洞察を組み合わせる。
0.64
N-BEATS is a custom deep learning algorithm that is based on backward and forward residual links for univariate time series point forecasting. N-BEATSは、一変量時系列点予測のための後方および前方残差リンクに基づく独自のディープラーニングアルゴリズムである。 0.74
We presented both nonlinear and real-time prediction technique for financial time series that is made by a many-to-one LSTM which is sequentially trained with windows of data. 本研究では,複数対1のlstmを用いてデータ窓を順次訓練した金融時系列の非線形およびリアルタイム予測手法を提案する。 0.73
The sequential window training approach has significantly improved LSTM’s learning ability while dramatically reducing LSTM’s over-fitting issues. シーケンシャルウィンドウトレーニングアプローチは、LSTMの学習能力を大幅に改善し、LSTMの過度な問題を大幅に削減した。 0.80
We empirically justified that our LSTM possesses superior performance even for highly volatile time series such as those in cryptocurrencies and commodities. 我々はLSTMが暗号通貨や商品などの高揮発性時系列でも優れた性能を有することを実証的に正当化した。 0.69
Acknowledgments The authors would like to thank the Google Cloud Platform for granting Research Credit to access its 承認 著者らは、Google Cloud PlatformにResearch Creditへのアクセスを許可してくれたことに感謝したい。
訳抜け防止モード: 承認 作者は望む Google Cloud PlatformがResearch Creditのアクセスを許可してくれたことに感謝
0.64
GPU computing resources under project number 397744870419. プロジェクト番号397744870419のGPUコンピューティングリソース。 0.70
References Allen-Zhu, Z., Li, Y., & Song, Z. (2019). 参考文献 Allen-Zhu, Z., Li, Y., & Song, Z. (2019)。 0.78
On the convergence rate of training recurrent neural netIn Advances in Neural Information Processing Systems (pp. 1310–1318). 神経情報処理システムにおけるリカレントニューラルネットの収束速度について(pp. 1310-1318) 0.75
PMLR volume 32. works. PMLR第32巻。 作品。 0.63
arXiv:1810.12065. arXiv:1810.12065。 0.24
18 18 0.43
英語(論文から抽出)日本語訳スコア
Bahadur, N., Paffenroth, R., & Gajamannage, K. (2019). bahadur, n., paffenroth, r., & gajamannage, k. (2019)。 0.68
Dimension Estimation of Equity Markets. 株式市場の次元推定。 0.66
In Proceedings - 2019 IEEE International Conference on Big Data, Big Data 2019 (pp. 5491–5498). In Proceedings - 2019 IEEE International Conference on Big Data, Big Data 2019 (pp. 5491–5498)。 0.46
Institute of Electrical and Electronics Engineers Inc. doi:10.1109/BigData4 7090.2019.9006343. Institute of Electro and Electronics Engineers Inc. doi:10.1109/BigData4 7090.2019.9006343 0.27
Bontempi, G., Ben Taieb, S., & Le Borgne, Y. A. (2013). Bontempi, G., Ben Taieb, S., & Le Borgne, Y. A. (2013)。 0.83
Machine learning strategies for time series forecasting. 時系列予測のための機械学習戦略。 0.82
In Lecture Notes in Business Information Processing (pp. 62–77). ビジネス情報処理における講義ノート(pp. 62-77) 0.83
Springer volume 138 LNBIP. 春巻138 LNBIP。 0.25
doi:10.1007/978-3-64 2-36318-4_3. doi:10.1007/978-3-64 2-36318-4_3。 0.09
Gajamannage, K., Butail, S., Porfiri, M., & Bollt, E. M. (2015). Gajamannage, K., Butail, S., Porfiri, M., & Bollt, E. M. (2015)。 0.45
Identifying manifolds underlying group motion in Vicsek agents. ビエクエージェントにおける群運動に基づく多様体の同定。 0.55
European Physical Journal: Special Topics, 224 , 3245–3256. European Physical Journal: Special Topics, 224 , 3245–3256。 0.47
doi:10.1140/ epjst/e2015-50088-2. doi:10.1140/epjst/e2 015-50088-2。 0.27
Gajamannage, K., & Paffenroth, R. (2021). Gajamannage, K., & Paffenroth, R. (2021)。 0.44
Bounded manifold completion. 有界多様体の完備化。 0.33
Pattern Recognition, 111 , 107661. パターン認識、111 , 107661。 0.75
doi:https://doi.org/ 10.1016/j.patcog.202 0.107661. doi:https://doi.org/ 10.1016/j.patcog.202 0.107661 0.18
Gajamannage, K., Paffenroth, R., & Bollt, E. M. (2019). Gajamannage, K., Paffenroth, R., & Bollt, E. M. (2019)。 0.46
A nonlinear dimensionality reduction framework 非線形次元減少フレームワーク 0.77
using smooth geodesics. 滑らかな測地線を使います 0.46
Pattern Recognition, 87 , 226–236. パターン認識、87、226-236。 0.79
doi:10.1016/j.patcog .2018.10.020. doi:10.1016/j.patcog .2018.10.020 0.11
Gajamannage, K., Park, Y., Paffenroth, R., & Jayasumana, A. P. (2021). Gajamannage, K., Park, Y., Paffenroth, R. & Jayasumana, A. P. (2021)。 0.90
Reconstruction of Fragmented Trajectories of Collective Motion using Hadamard Deep Autoencoders. ハダマール深部オートエンコーダを用いた群運動の断片的軌跡の再構成 0.63
arXiv preprint arXiv:2110.10428, . arXiv preprint arXiv:2110.10428, 0.37
doi:10.48550/arxiv.2 110.10428. doi:10.48550/arxiv.2 110.10428。 0.26
arXiv:2110.10428. arXiv:2110.10428。 0.48
Geurts, M., Box, G. E. P., & Jenkins, G. M. (1977). Geurts, M., Box, G. E. P., & Jenkins, G. M. (1977)。 0.96
Time Series Analysis: Forecasting and Control. 時系列分析:予測と制御。 0.70
Journal of Marketing Research, 14 , 269. 日誌 マーケティング研究14巻、269頁。 0.67
doi:10.2307/3150485. doi:10.2307/3150485。 0.38
Gruslys, A., Munos, R., Danihelka, I., Lanctot, M., & Graves, A. (2016). Gruslys, A., Munos, R., Danihelka, I., Lanctot, M., & Graves, A. (2016)。 0.42
Memory-efficient backpropagation through time. メモリ効率のよいバックプロパゲーション。 0.62
Advances in Neural Information Processing Systems, 29 , 4132–4140. ニューラル情報処理システムの進歩, 29 , 4132–4140。 0.83
arXiv:1606.03401. arXiv:1606.03401。 0.44
Hochreiter, S., & Schmidhuber, J. (1997). Hochreiter, S., & Schmidhuber, J. (1997)。 0.41
Long short-term memory. Neural computation, 9 , 1735–1780. 短期記憶。 神経計算 9 , 1735-1780。 0.49
doi:10.1162/neco.199 7.9.8.1735. doi:10.1162/neco.199 7.9.8.1735 0.21
Kim, J., El Khamy, M., & Lee, J. (2017). Kim, J., El Khamy, M., & Lee, J. (2017)。 0.83
Residual LSTM: Design of a deep recurrent architecture for distant speech recognition. 残差LSTM:遠隔音声認識のための深部繰り返しアーキテクチャの設計 0.68
Proceedings of the Annual Conference of the International Speech Communication Association, 2017-Augus, 1591–1595. 2017-augus, 1591–1595国際音声コミュニケーション学会年次大会の開催報告 0.74
doi:10.21437/Intersp eech.2017-477. doi:10.21437/intersp eech.2017-477。 0.25
Kingma, D. P., & Ba, J. L. (2015). Kingma, D. P., & Ba, J. L. (2015)。 0.95
Adam: A method for stochastic optimization. Adam: 確率最適化の方法です。 0.69
3rd International Conference on Learning Representations, ICLR 2015 - Conference Track Proceedings, . 第3回 学習表現に関する国際会議 ICLR 2015 - Conference Track Proceedings 0.74
doi:10.48550/arXiv.1 412. doi:10.48550/arxiv.1 412。 0.31
6980. arXiv:1412.6980. 6980. arXiv:1412.6980。 0.33
Le, P., & Zuidema, W. (2016). Le, P., & Zuidema, W. (2016)。 0.88
Quantifying the Vanishing Gradient and Long Distance Dependency Problem in Recursive Neural Networks and Recursive LSTMs. Recursive Neural NetworksとRecursive LSTMにおける消滅グラディエントおよび長距離依存性問題の定量化 0.89
arXiv preprint arXiv:1603.00423, (pp. 87–93). arxiv プレプリント arxiv:1603.00423 (pp. 87-93)。 0.39
doi:10.18653/v1/w16- 1610. doi:10.18653/v1/w16- 1610。 0.22
arXiv:1603.00423. arXiv:1603.00423。 0.48
Lim, B., Arık, S., Loeff, N., & Pfister, T. (2021). Lim, B., Arık, S., Loeff, N., & Pfister, T. (2021)。 0.85
Temporal Fusion Transformers for interpretable multihorizon time series forecasting. 解釈可能なマルチホリゾン時系列予測のための時相核融合変換器 0.61
International Journal of Forecasting, 37 , 1748–1764. 国際予報誌、37頁、1748-1764頁。 0.54
doi:10.1016/j. doi:10.1016/j。 0.18
ijforecast.2021.03.0 12. ijforecast.2021.03.0 12。 0.36
arXiv:1912.09363. arXiv:1912.09363。 0.49
Ma, Y., & Principe, J. (2018). Ma, Y., & Principe, J. (2018)。 0.82
Comparison of Static Neural Network with External Memory and RNNs for Deterministic Context Free Language Learning. 決定論的文脈自由言語学習のための静的ニューラルネットワークと外部記憶とRNNの比較 0.86
In Proceedings of the International Joint Conference on Neural Networks (pp. 1–7). international joint conference on neural networks (pp. 1-7) で発表された。 0.77
IEEE volume 2018-July. 2018年7月発売。 0.35
doi:10.1109/IJCNN.20 18.8489240. doi:10.1109/ijcnn.20 18.8489240 0.13
19 19 0.42
英語(論文から抽出)日本語訳スコア
Manneschi, L., & Vasilaki, E. (2020). Manneschi, L., & Vasilaki, E. (2020)。 0.88
An alternative to backpropagation through time. 時間によるバックプロパゲーションの代替手段。 0.69
Nature Machine Intelligence, 2 , 155–156. 自然機械 第2巻、155-156頁。 0.53
doi:10.1038/s42256-0 20-0162-9. Doi:10.1038/s42256-0 20-0162-9。 0.19
Newbold, P. (1983). P.(1983年)。 0.50
ARIMA model building and the time series analysis approach to forecasting. ARIMAモデル構築と時系列解析による予測 0.62
Journal of Forecasting, 2 , 23–35. 日誌 予測値:2,23-35。 0.65
doi:10.1002/for.3980 020104. doi:10.1002/for.3980 020104。 0.28
Oreshkin, B. N., Carpov, D., Chapados, N., & Bengio, Y. (2019). Oreshkin, B. N., Carpov, D., Chapados, N., & Bengio, Y. (2019)。 0.43
N-BEATS: Neural basis expansion analysis for interpretable time series forecasting. N-BEATS: 解釈可能な時系列予測のためのニューラルネットワークベース展開解析 0.64
arXiv preprint arXiv:1905.10437, . arXiv preprint arXiv: 1905.10437, 0.37
URL: http://arxiv.org/ abs/1905.10437. url: http://arxiv.org/ abs/1905.10437。 0.49
arXiv:1905.10437. arxiv: 1905.10437。 0.26
Park, Y., Gajamannage, K., Jayathilake, D. I., & Bollt, E. M. (2022). Park, Y., Gajamannage, K., Jayathilake, D. I., & Bollt, E. M. (2022)。 0.46
Recurrent Neural Networks for Dynamical Systems : Applications to Ordinary Differential Equations , Collective Motion , and Hydrological Modeling, . 動的システムのリカレントニューラルネットワーク : 正規微分方程式、集合運動、水理モデリングへの応用 0.66
(pp. 1–15). (pp.1-15)。 0.67
doi:10.48550/arxiv.2 202.07022. doi:10.48550/arxiv.2 202.07022。 0.26
Qiu, J., Wang, B., & Zhou, C. (2020). Qiu, J., Wang, B., & Zhou, C. (2020)。 0.87
Forecasting stock prices with long-short term memory neural network 長期記憶ニューラルネットワークによる株価予測 0.64
based on attention mechanism. PLoS ONE , 15 , e0227222. 注意機構に基づいて PLoS ONE , 15 , e0227222。 0.78
doi:10.1371/journal. pone.0227222. doi:10.1371/journal. pone.0227222 0.14
Salinas, D., Flunkert, V., Gasthaus, J., & Januschowski, T. (2020). Salinas, D., Flunkert, V., Gasthaus, J., & Januschowski, T. (2020)。 0.43
DeepAR: Probabilistic forecasting with autoregressive recurrent networks. DeepAR: 自己回帰リカレントネットワークによる確率予測。 0.78
International Journal of Forecasting, 36 , 1181–1191. 国際予報誌、36頁、1181-1191頁。 0.52
doi:10.1016/ j.ijforecast.2019.07 .001. doi:10.1016/j.ijfore cast.2019.07.001 0.14
arXiv:1704.04110. arXiv:1704.04110 0.27
Shih, C. H., Yan, B. C., Liu, S. H., & Chen, B. (2018). Shih, C. H., Yan, B. C., Liu, S. H., & Chen, B. (2018)。 0.47
Investigating Siamese LSTM networks for text categorization. テキスト分類のためのシームズLSTMネットワークの検討 0.77
In Proceedings - 9th Asia-Pacific Signal and Information Processing Association Annual Summit and Conference, APSIPA ASC 2017 (pp. 641–646). 第9回アジア太平洋信号・情報処理学会年次サミット・カンファレンス, APSIPA ASC 2017 (pp. 641–646)
訳抜け防止モード: 第9回アジア太平洋信号・情報処理学会年次大会報告 and Conference, APSIPA ASC 2017 ( pp. 641–646 )
0.84
IEEE volume 2018-Febru. IEEE 2018-Februを参照。 0.56
doi:10.1109/ APSIPA.2017.8282104. 10.1109/APSIPA.2017. 8282104 0.17
Shumway, R. H., & Stoffer, D. S. (2017). Shumway, R. H., & Stoffer, D. S. (2017)。 0.48
ARIMA Models. (pp. 75–163). ARIMAモデル。 (pp. 75-163)。 0.74
Springer, Cham. doi:10.1007/ 春、チャム。 doi:10.1007/ 0.30
978-3-319-52452-8_3. 978-3-319-52452-8_3. 0.14
Simistira, F., Ul-Hassan, A., Papavassiliou, V., Gatos, B., Katsouros, V., & Liwicki, M. (2015). Simistira, F., Ul-Hassan, A., Papavassiliou, V., Gatos, B., Katsouros, V., & Liwicki, M. (2015)。 0.46
Recognition of historical Greek polytonic scripts using LSTM networks. LSTMネットワークを用いた古代ギリシア語多言語文字の認識 0.69
In Proceedings of the International Conference on Document Analysis and Recognition, ICDAR (pp. 766–770). 国際文書分析・認識会議(international conference on document analysis and recognition)では、icdar (pp. 766-770) が開催されている。 0.52
IEEE volume 2015-Novem. IEEEの2015年版。 0.58
doi:10. 1109/ICDAR.2015.7333 865. ドイ:10 1109/icdar.2015.7333 865。 0.50
Squarepants, S. (2022). S.S.(2022年)。 0.29
Bitcoin: A Peer-to-Peer Electronic Cash System. Bitcoin: ピアツーピア電子キャッシュシステム。 0.59
SSRN Electronic Journal , (p. ssrn電子ジャーナル(p。 0.52
21260). doi:10.2139/ssrn.397 7007. 21260). doi:10.2139/ssrn.397 7007。 0.37
Taylor, S. J., & Letham, B. (2018). Taylor, S. J., & Letham, B. (2018)。 0.90
Forecasting at Scale. American Statistician, 72 , 37–45. スケールでの予測。 アメリカの統計学者、72、37-45。 0.65
doi:10.1080/ doi:10.1080/ 0.17
00031305.2017.138008 0. 00031305.2017.138008 0. 0.25
Tian, X., Zhang, J., Ma, Z., He, Y., Wei, J., Wu, P., Situ, W., Li, S., & Zhang, Y. (2017). Tian, X., Zhang, J., Ma, Z., He, Y., Wei, J., Wu, P., Situ, W., Li, S., & Zhang, Y. (2017)。 0.83
Deep LSTM for large vocabulary continuous speech recognition, . 大型用深部LSTM 語彙連続音声認識 0.44
doi:10.48550/arXiv.1 703.07090. doi:10.48550/arxiv.1 703.07090。 0.13
arXiv:1703.07090. arXiv:1703.07090。 0.24
Valade, A., Acco, P., Grabolosa, P., & Fourniols, J. Y. (2017). Valade, A., Acco, P., Grabolosa, P., & Fourniols, J. Y. (2017)。 0.87
A study about kalman filters applied to カルマンフィルタの応用に関する研究 0.57
embedded sensors. Sensors (Switzerland), 17 , 2810. 組み込みセンサー。 センサー (switzerland) 17 , 2810。 0.68
doi:10.3390/s1712281 0. doi:10.3390/s1712281 0。 0.17
Werbos, P. J. (1990). werbos, p. j. (1990)。 0.82
Backpropagation Through Time: What It Does and How to Do It. 時間のバックプロパゲーション:何をするか、どのように行うか。 0.60
Proceedings of the IEEE , 78 , 1550–1560. 議事録 IEEE 78, 1550-1560。 0.61
doi:10.1109/5.58337. doi:10.1109/5.58337。 0.15
Zhao, Y., Ge, L., Zhou, Y., Sun, Z., Zheng, E., Wang, X., Huang, Y., & Cheng, H. (2018). Zhao, Y., Ge, L., Zhou, Y., Sun, Z., Zheng, E., Wang, X., Huang, Y., & Cheng, H. (2018)。 0.43
A new Seasonal Difference Space-Time Autoregressive Integrated Moving Average (SD-STARIMA) model and spatiotemporal trend prediction analysis for Hemorrhagic Fever with Renal Syndrome (HFRS). 経時的時空間自己回帰統合移動平均(SD-STARIMA)モデルと時空間トレンド予測による腎症候群(HFRS)の経時的変化予測 0.81
PLoS ONE , 13 , e0207518. PLoS ONE , 13 , e0207518。 0.91
doi:10.1371/journal. pone.0207518. doi:10.1371/journal. pone.0207518 0.14
20 20 0.43
                                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。