論文の概要: Multi-Horizon Forecasting for Limit Order Books: Novel Deep Learning
Approaches and Hardware Acceleration using Intelligent Processing Units
- arxiv url: http://arxiv.org/abs/2105.10430v1
- Date: Fri, 21 May 2021 16:06:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 03:08:33.342522
- Title: Multi-Horizon Forecasting for Limit Order Books: Novel Deep Learning
Approaches and Hardware Acceleration using Intelligent Processing Units
- Title(参考訳): リミットオーダーブックのマルチホライゾン予測--インテリジェント処理ユニットを用いた新しいディープラーニングアプローチとハードウェアアクセラレーション
- Authors: Zihao Zhang, Stefan Zohren
- Abstract要約: 我々は、深層学習技術を用いて、リミットオーダーブック(LOB)データのためのマルチ水平予測モデルを設計する。
提案手法は,短時間の予測地平線における最先端のアルゴリズムに匹敵する性能を実現する。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design multi-horizon forecasting models for limit order book (LOB) data by
using deep learning techniques. Unlike standard structures where a single
prediction is made, we adopt encoder-decoder models with sequence-to-sequence
and Attention mechanisms, to generate a forecasting path. Our methods achieve
comparable performance to state-of-art algorithms at short prediction horizons.
Importantly, they outperform when generating predictions over long horizons by
leveraging the multi-horizon setup. Given that encoder-decoder models rely on
recurrent neural layers, they generally suffer from a slow training process. To
remedy this, we experiment with utilising novel hardware, so-called Intelligent
Processing Units (IPUs) produced by Graphcore. IPUs are specifically designed
for machine intelligence workload with the aim to speed up the computation
process. We show that in our setup this leads to significantly faster training
times when compared to training models with GPUs.
- Abstract(参考訳): 我々は、深層学習技術を用いて、リミットオーダーブック(LOB)データのためのマルチ水平予測モデルを設計する。
単一の予測を行う標準的な構造とは異なり、シーケンス列とアテンション機構を備えたエンコーダ-デコーダモデルを採用し、予測パスを生成する。
提案手法は,最先端アルゴリズムに匹敵する性能を短時間予測で達成する。
重要なのは、マルチホライズンセットアップを利用することで、長い地平線上で予測を生成する場合よりも優れています。
エンコーダ-デコーダモデルがリカレントニューラルネットワーク層に依存していることを考えると、一般的にはトレーニングプロセスが遅い。
そこで我々は,Graphcore が開発した新しいハードウェア,いわゆる Intelligent Processing Units (IPUs) の活用実験を行った。
IPUは特に、計算処理の高速化を目的とした、マシンインテリジェンスワークロード用に設計されている。
セットアップでは、GPUを使用したトレーニングモデルと比較して、トレーニング時間が大幅に短縮されることを示している。
関連論文リスト
- Parallel Decoding via Hidden Transfer for Lossless Large Language Model Acceleration [54.897493351694195]
本稿では,複数連続するトークンを1つのフォワードパスで同時に復号する,新しい並列復号法,すなわちthithidden Transferを提案する。
加速度測定では,Medusa や Self-Speculative decoding など,単モデル加速技術よりも優れています。
論文 参考訳(メタデータ) (2024-04-18T09:17:06Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Benchmarking GPU and TPU Performance with Graph Neural Networks [0.0]
この研究は、現実のパターン認識問題を解決するために開発されたグラフニューラルネットワーク(GNN)を用いてGPUとTPUのパフォーマンストレーニングを分析し、比較する。
スパースデータに作用する新しいモデルのクラスを特徴付けることは、ディープラーニングライブラリや将来のAIアクセラレータの設計を最適化するのに有効である。
論文 参考訳(メタデータ) (2022-10-21T21:03:40Z) - Accelerating Machine Learning Training Time for Limit Order Book
Prediction [0.0]
金融機関は、金融機械学習を含む特定のアルゴリズムが利益を上げられるかどうかを知るためのシミュレーションに興味を持っている。
このタスクでは、ハードウェアアクセラレーションにより、ファイナンシャル機械学習研究者が結果を得るのに必要な時間を短縮することが期待されている。
株式市場の方向性を予測するためのリミットオーダーブックアルゴリズムが我々の課題であり、機械学習のトレーニングプロセスは時間を要する可能性がある。
調査された構成では、これによりトレーニング時間が大幅に短縮され、より効率的で広範なモデル開発が可能になる。
論文 参考訳(メタデータ) (2022-06-17T22:52:56Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - A Survey of Deep Learning Techniques for Dynamic Branch Prediction [0.0]
ブランチ予測は、パイプラインプロセッサでのブランチ命令の実行を高速化するアーキテクチャ機能である。
ムーアの法則時代におけるディープラーニング(DL)の最近の進歩は、自動チップ設計の領域を加速させている。
論文 参考訳(メタデータ) (2021-12-30T03:44:27Z) - MQBench: Towards Reproducible and Deployable Model Quantization
Benchmark [53.12623958951738]
MQBenchは、モデル量子化アルゴリズムの評価、分析、およびデプロイ可能性のベンチマークを行う最初の試みである。
我々は、CPU、GPU、ASIC、DSPを含む実世界のデプロイのための複数のプラットフォームを選択し、最先端の量子化アルゴリズムを評価する。
包括的な分析を行い、直感的、直感的、あるいは反直感的な洞察を見出す。
論文 参考訳(メタデータ) (2021-11-05T23:38:44Z) - Low-Precision Hardware Architectures Meet Recommendation Model Inference
at Scale [11.121380180647769]
本稿では,低精度ハードウェアに参照レコメンデーションモデルを適用するための検索戦略について紹介する。
また,ツールチェーンの設計と開発について論じ,モデルの精度を生涯にわたって維持する。
これらの教訓は,ハードウェアアーキテクチャとソフトウェアエンジニアリングの協調設計を促進するものだ,と私たちは信じています。
論文 参考訳(メタデータ) (2021-05-26T16:42:33Z) - Efficient Algorithms for Device Placement of DNN Graph Operators [12.871398348743591]
現代の機械学習ワークロードは、実行に非常にコストがかかる複雑な構造を持つ大規模なモデルを使用する。
複雑なモデルを実行するデバイスは、CPUに加えて、ハードウェアアクセラレータとして提供されるドメイン固有のアクセラレータが盛んになるにつれて、ますます異質になりつつある。
近年の研究では、モデルの並列性、すなわちニューラルネットワークの計算グラフを複数のデバイスに分割することで、大きな利益が得られることが示されている。
本稿では,DNN演算子のデバイス配置のコアとなる構造的最適化問題を,特に現代のパイプライン環境において,推論とトレーニングの両方のために同定し,分離する。
論文 参考訳(メタデータ) (2020-06-29T22:45:01Z) - Predictive Coding Approximates Backprop along Arbitrary Computation
Graphs [68.8204255655161]
我々は、コア機械学習アーキテクチャを予測的符号化に翻訳する戦略を開発する。
私たちのモデルは、挑戦的な機械学習ベンチマークのバックプロップと同等に機能します。
本手法は,ニューラルネットワークに標準機械学習アルゴリズムを直接実装できる可能性を高める。
論文 参考訳(メタデータ) (2020-06-07T15:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。