論文の概要: Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification
- arxiv url: http://arxiv.org/abs/2207.11577v1
- Date: Sat, 23 Jul 2022 18:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:54:13.650042
- Title: Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification
- Title(参考訳): インクリメンタルマルチスタック時系列分類のための拡張バイリニアネットワーク
- Authors: Mostafa Shabani, Dat Thanh Tran, Juho Kanniainen, Alexandros Iosifidis
- Abstract要約: 本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
- 参考スコア(独自算出の注目度): 83.23129279407271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning models have become dominant in tackling financial time-series
analysis problems, overturning conventional machine learning and statistical
methods. Most often, a model trained for one market or security cannot be
directly applied to another market or security due to differences inherent in
the market conditions. In addition, as the market evolves through time, it is
necessary to update the existing models or train new ones when new data is made
available. This scenario, which is inherent in most financial forecasting
applications, naturally raises the following research question: How to
efficiently adapt a pre-trained model to a new set of data while retaining
performance on the old data, especially when the old data is not accessible? In
this paper, we propose a method to efficiently retain the knowledge available
in a neural network pre-trained on a set of securities and adapt it to achieve
high performance in new ones. In our method, the prior knowledge encoded in a
pre-trained neural network is maintained by keeping existing connections fixed,
and this knowledge is adjusted for the new securities by a set of augmented
connections, which are optimized using the new data. The auxiliary connections
are constrained to be of low rank. This not only allows us to rapidly optimize
for the new task but also reduces the storage and run-time complexity during
the deployment phase. The efficiency of our approach is empirically validated
in the stock mid-price movement prediction problem using a large-scale limit
order book dataset. Experimental results show that our approach enhances
prediction performance as well as reduces the overall number of network
parameters.
- Abstract(参考訳): ディープラーニングモデルは、従来の機械学習や統計手法を覆し、金融時系列分析問題に取り組む上で支配的になっている。
多くの場合、ある市場やセキュリティのために訓練されたモデルは、市場条件に固有の相違のため、他の市場やセキュリティに直接適用することはできない。
加えて、市場が時間とともに進化するにつれて、新しいデータが利用可能になったら、既存のモデルを更新したり、新しいモデルをトレーニングする必要がある。
このシナリオは、ほとんどの金融予測アプリケーションに内在するが、自然に次の研究疑問を提起する。 トレーニング済みモデルを新しいデータセットに効率的に適応させながら、特に古いデータがアクセスできない場合、古いデータのパフォーマンスを維持するには、どうすればよいのか?
本稿では,証券群で事前学習したニューラルネットワークに利用可能な知識を効率的に保持し,それを適応して新規に高いパフォーマンスを実現する手法を提案する。
本手法では、事前学習されたニューラルネットワークで符号化された事前知識を既存の接続を固定して保持し、この知識を新たなデータを用いて最適化された拡張接続の集合により新規証券に調整する。
補助接続は低位に制限されている。
これにより、新しいタスクを迅速に最適化できるだけでなく、デプロイフェーズにおけるストレージと実行時の複雑さも低減できます。
大規模リミットオーダーブックデータセットを用いたストック中価格変動予測問題において,本手法の有効性を実証的に検証した。
実験の結果,提案手法により予測性能が向上し,ネットワークパラメータの総数も減少した。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - A Survey on Knowledge Editing of Neural Networks [46.42502573973257]
最大の人工ニューラルネットワークでさえ間違いを犯し、世界が時間とともに進むにつれて、一度修正された予測が無効になる可能性がある。
知識編集は、訓練済みのターゲットモデルに対する信頼性、データ効率、迅速な変更の実現を目的とした、新しい研究分野として浮上している。
まず、ニューラルネットワークの編集の問題を紹介し、それを共通のフレームワークで形式化し、継続的学習のような悪名高い研究分野と区別する。
論文 参考訳(メタデータ) (2023-10-30T16:29:47Z) - Overcoming Overconfidence for Active Learning [1.2776312584227847]
本稿では,アクティブな学習シナリオで発生する過信の問題に対処する2つの新しい手法を提案する。
1つ目はCross-Mix-and-Mix(CMaM)と呼ばれる拡張戦略で、限られたトレーニング分布を拡張してモデルを校正することを目的としている。
2つ目は Ranked Margin Sampling (RankedMS) という選択戦略である。
論文 参考訳(メタデータ) (2023-08-21T09:04:54Z) - DoubleAdapt: A Meta-learning Approach to Incremental Learning for Stock
Trend Forecasting [15.830713121725763]
2つのアダプタを持つエンドツーエンドのフレームワークを提案し、データとモデルを効果的に適応させ、分散シフトの効果を緩和する。
私たちのキーとなる洞察は、ストックデータをローカルな定常分布に自動的に適応させ、利益を上げる更新を優先する方法を学ぶことです。
実世界のストックデータセットの実験では、DoubleAdaptは最先端の予測性能を達成し、かなりの効率を示している。
論文 参考訳(メタデータ) (2023-06-16T14:18:32Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Class-Incremental Learning by Knowledge Distillation with Adaptive
Feature Consolidation [39.97128550414934]
本稿では,ディープニューラルネットワークに基づく新しいクラスインクリメンタル学習手法を提案する。
以前のタスクの例を格納するためのメモリが限られている新しいタスクを継続的に学習する。
我々のアルゴリズムは知識蒸留に基づいており、古いモデルの表現を維持するための原則的な方法を提供する。
論文 参考訳(メタデータ) (2022-04-02T16:30:04Z) - Hyperparameter-free Continuous Learning for Domain Classification in
Natural Language Understanding [60.226644697970116]
ドメイン分類は自然言語理解(NLU)の基本課題である
既存の継続的な学習アプローチの多くは、低い精度とパフォーマンスの変動に悩まされている。
本研究では,テキストデータに対するパラメータフリー連続学習モデルを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:46:16Z) - Bilinear Input Normalization for Neural Networks in Financial
Forecasting [101.89872650510074]
本稿では,高頻度金融時系列を扱うディープニューラルネットワークのための新しいデータ駆動正規化手法を提案する。
提案手法は,財務時系列のバイモーダル特性を考慮したものである。
我々の実験は最先端のニューラルネットワークと高周波データを用いて行われ、他の正規化技術よりも大幅に改善された。
論文 参考訳(メタデータ) (2021-09-01T07:52:03Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。