論文の概要: Time Series Analysis of Blockchain-Based Cryptocurrency Price Changes
- arxiv url: http://arxiv.org/abs/2202.13874v1
- Date: Sat, 19 Feb 2022 04:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-06 14:16:15.571491
- Title: Time Series Analysis of Blockchain-Based Cryptocurrency Price Changes
- Title(参考訳): ブロックチェーンに基づく暗号価格変動の時系列解析
- Authors: Jacques Fleischer and Gregor von Laszewski and Carlos Theran and Yohn
Jairo Parra Bautista
- Abstract要約: リスクの高い暗号通貨の歴史的記録にAIを適用して、価格を推測する予測モデルをトレーニングする。
このモデルは、LSTM、ドロップアウト、密度の高い3つのレイヤを使用してトレーニングされ、50エポックのトレーニングで損失を最小化する。
最後に、ノートブックは、実際の通貨価格と予測された価格のライングラフを赤でプロットする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we apply neural networks and Artificial Intelligence (AI) to
historical records of high-risk cryptocurrency coins to train a prediction
model that guesses their price. This paper's code contains Jupyter notebooks,
one of which outputs a timeseries graph of any cryptocurrency price once a CSV
file of the historical data is inputted into the program. Another Jupyter
notebook trains an LSTM, or a long short-term memory model, to predict a
cryptocurrency's closing price. The LSTM is fed the close price, which is the
price that the currency has at the end of the day, so it can learn from those
values. The notebook creates two sets: a training set and a test set to assess
the accuracy of the results.
The data is then normalized using manual min-max scaling so that the model
does not experience any bias; this also enhances the performance of the model.
Then, the model is trained using three layers -- an LSTM, dropout, and dense
layer-minimizing the loss through 50 epochs of training; from this training, a
recurrent neural network (RNN) is produced and fitted to the training set.
Additionally, a graph of the loss over each epoch is produced, with the loss
minimizing over time. Finally, the notebook plots a line graph of the actual
currency price in red and the predicted price in blue. The process is then
repeated for several more cryptocurrencies to compare prediction models. The
parameters for the LSTM, such as number of epochs and batch size, are tweaked
to try and minimize the root mean square error.
- Abstract(参考訳): 本稿では、リスクの高い暗号通貨の歴史的記録にニューラルネットワークと人工知能(AI)を適用し、価格を推定する予測モデルをトレーニングする。
本論文のコードにはJupyterノートブックが含まれており、履歴データのCSVファイルがプログラムに入力されると、暗号通貨価格の時系列グラフを出力する。
別のJupyterノートブックはLSTM(長期記憶モデル)をトレーニングし、暗号通貨の閉値を予測する。
LSTMは、その日の終わりに通貨が持つ価格である密接な価格で供給されるので、それらの値から学ぶことができる。
ノートブックは、トレーニングセットと、結果の正確性を評価するテストセットの2つのセットを生成する。
データは手動のmin-maxスケーリングを使って正規化され、モデルにバイアスがないようにします。
そして、モデルを3つの層(lstm、ドロップアウト、高密度層)で訓練し、50エポックのトレーニングで損失を最小限にし、このトレーニングから、リカレントニューラルネットワーク(rnn)が生成され、トレーニングセットに適合する。
さらに、各エポックに対する損失のグラフが作成され、損失は時間とともに最小化される。
最後に、ノートブックは、実際の通貨価格のライングラフを赤で、予測価格を青でプロットする。
このプロセスは、予測モデルを比較するために、さらにいくつかの暗号通貨で繰り返される。
LSTMのパラメータ、例えばエポック数やバッチサイズは、ルート平均二乗誤差を最小化するために微調整される。
関連論文リスト
- Patch-Level Training for Large Language Models [69.67438563485887]
本稿では,Large Language Models (LLM) に対するパッチレベルのトレーニングを紹介する。
パッチレベルのトレーニングでは、言語モデルの短いパッチシーケンスをフィードし、次のパッチを予測するようにトレーニングします。
これに続いて、モデルは推論モードに合わせて、残りのトレーニングデータに対するトークンレベルのトレーニングを継続する。
論文 参考訳(メタデータ) (2024-07-17T15:48:39Z) - Review of deep learning models for crypto price prediction: implementation and evaluation [5.240745112593501]
本稿では、暗号通貨価格予測のためのディープラーニングに関する文献をレビューし、暗号通貨価格予測のための新しいディープラーニングモデルを評価する。
我々のディープラーニングモデルには、長い短期記憶(LSTM)リカレントニューラルネットワークの変種、畳み込みニューラルネットワーク(CNN)の変種、トランスフォーマーモデルが含まれています。
また、新型コロナウイルスのパンデミックを通じて価格の大幅な変動を示す4つの暗号通貨のボラティリティ分析を実施している。
論文 参考訳(メタデータ) (2024-05-19T03:15:27Z) - Language models scale reliably with over-training and on downstream tasks [121.69867718185125]
スケーリング法則は、高価なトレーニング実行を引き出すための有用なガイドである。
しかし、現在の研究と言語モデルがどのように訓練されているかには差がある。
対照的に、スケーリング法則は主に推論における損失を予測するが、モデルは通常下流のタスクのパフォーマンスで比較される。
論文 参考訳(メタデータ) (2024-03-13T13:54:00Z) - A Study on Stock Forecasting Using Deep Learning and Statistical Models [3.437407981636465]
本稿では、株価予測のための多くのディープラーニングアルゴリズムを概説し、トレーニングとテストにs&p500インデックスデータを用いた。
自動回帰積分移動平均モデル、リカレントニューラルネットワークモデル、長い短期モデル、畳み込みニューラルネットワークモデル、完全な畳み込みニューラルネットワークモデルなど、さまざまなモデルについて議論する。
論文 参考訳(メタデータ) (2024-02-08T16:45:01Z) - A Dynamical Model of Neural Scaling Laws [79.59705237659547]
ネットワークトレーニングと一般化の解決可能なモデルとして,勾配降下で訓練されたランダムな特徴モデルを分析する。
我々の理論は、データの繰り返し再利用により、トレーニングとテスト損失のギャップが徐々に増大することを示している。
論文 参考訳(メタデータ) (2024-02-02T01:41:38Z) - Boosted Dynamic Neural Networks [53.559833501288146]
典型的なEDNNは、ネットワークバックボーンの異なる層に複数の予測ヘッドを持つ。
モデルを最適化するために、これらの予測ヘッドとネットワークバックボーンは、トレーニングデータのバッチ毎にトレーニングされる。
トレーニングと2つのフェーズでのインプットの異なるテストは、トレーニングとデータ分散のテストのミスマッチを引き起こす。
EDNNを勾配強化にインスパイアされた付加モデルとして定式化し、モデルを効果的に最適化するための複数のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T04:23:12Z) - Application of Convolutional Neural Networks with Quasi-Reversibility
Method Results for Option Forecasting [11.730033307068405]
我々は、92,846社のデータを分析するために、ブラック・スコールズ方程式の新しい経験的数学的モデルを作成し、評価する。
準可逆法 (QRM) を用いて, ある日, 将来のオプション価格を予測し, 逆問題として, 時間内におけるブラック・スコールズ(BS)方程式を解く。
研究の現在の段階は、QRMと畳み込みニューラルネットワーク(CNN)を組み合わせることで、多数のデータポイントを同時に学習する。
論文 参考訳(メタデータ) (2022-08-25T04:08:59Z) - Datamodels: Predicting Predictions from Training Data [86.66720175866415]
本稿では,モデルクラスの振る舞いを学習データの観点から分析するための概念的枠組みであるデータモデリングについて述べる。
単純な線形データモデルであっても、モデル出力をうまく予測できることが示される。
論文 参考訳(メタデータ) (2022-02-01T18:15:24Z) - Wasserstein GAN: Deep Generation applied on Bitcoins financial time
series [0.0]
本稿では、サンプル生成に焦点を当てたデータ駆動モデルであるWGAN-GPと呼ばれるディープニューラルネットワークを紹介する。
WGAN-GPは、入力データの基本構造を学ぶことになっている。
生成された合成時系列は、実データと視覚的に区別できない。
論文 参考訳(メタデータ) (2021-07-13T11:59:05Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Forecasting Bitcoin closing price series using linear regression and
neural networks models [4.17510581764131]
データ価格と前日のボリュームを用いて、Bitcoinの日次閉鎖価格の予測方法について検討する。
統計的手法と機械学習アルゴリズムの両方を実装した。
論文 参考訳(メタデータ) (2020-01-04T21:04:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。