論文の概要: Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification
- arxiv url: http://arxiv.org/abs/2207.11577v1
- Date: Sat, 23 Jul 2022 18:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:54:13.650042
- Title: Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification
- Title(参考訳): インクリメンタルマルチスタック時系列分類のための拡張バイリニアネットワーク
- Authors: Mostafa Shabani, Dat Thanh Tran, Juho Kanniainen, Alexandros Iosifidis
- Abstract要約: 本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
- 参考スコア(独自算出の注目度): 83.23129279407271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning models have become dominant in tackling financial time-series
analysis problems, overturning conventional machine learning and statistical
methods. Most often, a model trained for one market or security cannot be
directly applied to another market or security due to differences inherent in
the market conditions. In addition, as the market evolves through time, it is
necessary to update the existing models or train new ones when new data is made
available. This scenario, which is inherent in most financial forecasting
applications, naturally raises the following research question: How to
efficiently adapt a pre-trained model to a new set of data while retaining
performance on the old data, especially when the old data is not accessible? In
this paper, we propose a method to efficiently retain the knowledge available
in a neural network pre-trained on a set of securities and adapt it to achieve
high performance in new ones. In our method, the prior knowledge encoded in a
pre-trained neural network is maintained by keeping existing connections fixed,
and this knowledge is adjusted for the new securities by a set of augmented
connections, which are optimized using the new data. The auxiliary connections
are constrained to be of low rank. This not only allows us to rapidly optimize
for the new task but also reduces the storage and run-time complexity during
the deployment phase. The efficiency of our approach is empirically validated
in the stock mid-price movement prediction problem using a large-scale limit
order book dataset. Experimental results show that our approach enhances
prediction performance as well as reduces the overall number of network
parameters.
- Abstract(参考訳): ディープラーニングモデルは、従来の機械学習や統計手法を覆し、金融時系列分析問題に取り組む上で支配的になっている。
多くの場合、ある市場やセキュリティのために訓練されたモデルは、市場条件に固有の相違のため、他の市場やセキュリティに直接適用することはできない。
加えて、市場が時間とともに進化するにつれて、新しいデータが利用可能になったら、既存のモデルを更新したり、新しいモデルをトレーニングする必要がある。
このシナリオは、ほとんどの金融予測アプリケーションに内在するが、自然に次の研究疑問を提起する。 トレーニング済みモデルを新しいデータセットに効率的に適応させながら、特に古いデータがアクセスできない場合、古いデータのパフォーマンスを維持するには、どうすればよいのか?
本稿では,証券群で事前学習したニューラルネットワークに利用可能な知識を効率的に保持し,それを適応して新規に高いパフォーマンスを実現する手法を提案する。
本手法では、事前学習されたニューラルネットワークで符号化された事前知識を既存の接続を固定して保持し、この知識を新たなデータを用いて最適化された拡張接続の集合により新規証券に調整する。
補助接続は低位に制限されている。
これにより、新しいタスクを迅速に最適化できるだけでなく、デプロイフェーズにおけるストレージと実行時の複雑さも低減できます。
大規模リミットオーダーブックデータセットを用いたストック中価格変動予測問題において,本手法の有効性を実証的に検証した。
実験の結果,提案手法により予測性能が向上し,ネットワークパラメータの総数も減少した。
関連論文リスト
- Dreaming Learning [41.94295877935867]
機械学習システムに新しい情報を導入することは、以前に格納されたデータに干渉する可能性がある。
スチュアート・カウフマンの随伴可能性の概念に着想を得た学習アルゴリズムを提案する。
ニューラルネットワークは、予想と異なる統計特性を持つデータシーケンスを円滑に受け入れ、統合することを前提としている。
論文 参考訳(メタデータ) (2024-10-23T09:17:31Z) - Beyond Prompt Learning: Continual Adapter for Efficient Rehearsal-Free Continual Learning [22.13331870720021]
C-ADA (Continuous Adapter) という,RFCL タスクに対する超高速学習手法を提案する。
C-ADAは、CALの特定の重みを柔軟に拡張し、各タスクの新たな知識を学び、古い重みを凍結して以前の知識を保存する。
提案手法は,現状のSOTA(State-of-the-art)法よりも優れ,性能とトレーニング速度を大幅に向上させる。
論文 参考訳(メタデータ) (2024-07-14T17:40:40Z) - Adaptive Memory Replay for Continual Learning [29.333341368722653]
新たなデータが利用可能になれば、ファンデーションモデルの更新は破滅的な忘れに繋がる」
連続学習のための適応型メモリリプレイの枠組みを導入し、過去のデータのサンプリングをマルチアームバンディット問題と表現する。
我々は,学習効率を犠牲にすることなく,最大10%の忘れ込みを低減しつつ,高い性能を維持するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-04-18T22:01:56Z) - A Survey on Knowledge Editing of Neural Networks [43.813073385305806]
最大の人工ニューラルネットワークでさえ間違いを犯し、世界が時間とともに進むにつれて、一度修正された予測が無効になる可能性がある。
知識編集は、訓練済みのターゲットモデルに対する信頼性、データ効率、迅速な変更の実現を目的とした、新しい研究分野として浮上している。
まず、ニューラルネットワークの編集の問題を紹介し、それを共通のフレームワークで形式化し、継続的学習のような悪名高い研究分野と区別する。
論文 参考訳(メタデータ) (2023-10-30T16:29:47Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - DoubleAdapt: A Meta-learning Approach to Incremental Learning for Stock Trend Forecasting [23.64541466875515]
2つのアダプタを持つエンドツーエンドのフレームワークを提案し、データとモデルを効果的に適応させ、分散シフトの効果を緩和する。
私たちのキーとなる洞察は、ストックデータをローカルな定常分布に自動的に適応させ、利益を上げる更新を優先する方法を学ぶことです。
実世界のストックデータセットの実験では、DoubleAdaptは最先端の予測性能を達成し、かなりの効率を示している。
論文 参考訳(メタデータ) (2023-06-16T14:18:32Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Hyperparameter-free Continuous Learning for Domain Classification in
Natural Language Understanding [60.226644697970116]
ドメイン分類は自然言語理解(NLU)の基本課題である
既存の継続的な学習アプローチの多くは、低い精度とパフォーマンスの変動に悩まされている。
本研究では,テキストデータに対するパラメータフリー連続学習モデルを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:46:16Z) - Bilinear Input Normalization for Neural Networks in Financial
Forecasting [101.89872650510074]
本稿では,高頻度金融時系列を扱うディープニューラルネットワークのための新しいデータ駆動正規化手法を提案する。
提案手法は,財務時系列のバイモーダル特性を考慮したものである。
我々の実験は最先端のニューラルネットワークと高周波データを用いて行われ、他の正規化技術よりも大幅に改善された。
論文 参考訳(メタデータ) (2021-09-01T07:52:03Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。