論文の概要: Multi-source Transfer Learning with Ensemble for Financial Time Series
Forecasting
- arxiv url: http://arxiv.org/abs/2103.15593v1
- Date: Fri, 26 Mar 2021 02:32:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 16:52:43.868873
- Title: Multi-source Transfer Learning with Ensemble for Financial Time Series
Forecasting
- Title(参考訳): 金融時系列予測のためのアンサンブルを用いたマルチソース転送学習
- Authors: Qi-Qiao He, Patrick Cheong-Iao Pang, Yain-Whar Si
- Abstract要約: 本稿では,金融時系列のマルチソース深層移動学習について検討する。
重み付き転送学習のための平均アンサンブル(WAETL)と木構造パーゼン推定アンサンブル選択(TPEES)という2つのマルチソース転送学習手法を提案する。
実験の結果、TPEESはマルチソース転送タスクの大部分で他のベースラインメソッドより優れていることが明らかになった。
- 参考スコア(独自算出の注目度): 1.9401271427657396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although transfer learning is proven to be effective in computer vision and
natural language processing applications, it is rarely investigated in
forecasting financial time series. Majority of existing works on transfer
learning are based on single-source transfer learning due to the availability
of open-access large-scale datasets. However, in financial domain, the lengths
of individual time series are relatively short and single-source transfer
learning models are less effective. Therefore, in this paper, we investigate
multi-source deep transfer learning for financial time series. We propose two
multi-source transfer learning methods namely Weighted Average Ensemble for
Transfer Learning (WAETL) and Tree-structured Parzen Estimator Ensemble
Selection (TPEES). The effectiveness of our approach is evaluated on financial
time series extracted from stock markets. Experiment results reveal that TPEES
outperforms other baseline methods on majority of multi-source transfer tasks.
- Abstract(参考訳): トランスファーラーニングはコンピュータビジョンや自然言語処理に有効であることが証明されているが、金融時系列の予測においてはほとんど研究されていない。
トランスファーラーニングに関する既存の作業の大部分は、オープンアクセスの大規模データセットが利用できるため、シングルソースのトランスファーラーニングに基づいている。
しかし、金融分野では、個々の時系列の長さは比較的短く、単一ソース転送学習モデルでは効果が低い。
そこで本稿では,金融時系列のマルチソース深層移動学習について検討する。
Weighted Average Ensemble for Transfer Learning (WAETL) と Tree-structured Parzen Estimator Ensemble Selection (TPEES) という2つのマルチソーストランスファー学習手法を提案する。
本手法の有効性は株式市場から抽出した金融時系列を用いて評価する。
実験の結果,TPEESはマルチソース転送タスクの大部分において,他のベースライン手法よりも優れていることがわかった。
関連論文リスト
- Cross-Modal Few-Shot Learning: a Generative Transfer Learning Framework [58.362064122489166]
本稿では,複数モーダルからインスタンスを識別するクロスモーダルなFew-Shot Learningタスクを提案する。
本稿では,1つの段階からなる生成的転帰学習フレームワークを提案する。1つは豊富な一助データに対する学習を伴い,もう1つは新しいデータに適応するための転帰学習に焦点を当てる。
以上の結果から,GTLは4つの異なるマルチモーダルデータセット間の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T16:09:38Z) - Resource-Efficient Federated Multimodal Learning via Layer-wise and Progressive Training [15.462969044840868]
LW-FedMMLは,学習プロセスを複数の段階に分解する階層型多モーダル学習手法である。
提案手法の有効性を検証するため,様々なFLおよびマルチモーダル学習環境にまたがる広範囲な実験を行った。
具体的には、LW-FedMMLはメモリ使用量を最大2.7Times$、計算処理(FLOP)を2.4times$、通信総コストを2.3times$に削減する。
論文 参考訳(メタデータ) (2024-07-22T07:06:17Z) - Token-Efficient Leverage Learning in Large Language Models [13.830828529873056]
大規模言語モデル(LLM)は様々なタスクで優れていますが、高リソースのシナリオではより良く機能しています。
データ不足と特定のタスクにLLMを適用することの難しさは、この課題を複雑にしている。
本稿では,Token-Efficient Leverage Learning (TELL) と呼ばれる方法論の合理化実装を提案する。
論文 参考訳(メタデータ) (2024-04-01T04:39:44Z) - Multimodal Representation Learning by Alternating Unimodal Adaptation [73.15829571740866]
MLA(Multimodal Learning with Alternating Unimodal Adaptation)を提案する。
MLAは、それを交互に一助学習プロセスに変換することで、従来の共同マルチモーダル学習プロセスを再構築する。
共有ヘッドを通じてモーダル間相互作用をキャプチャし、異なるモーダル間で連続的な最適化を行う。
実験は5つの多様なデータセットで行われ、完全なモダリティを持つシナリオと、欠落したモダリティを持つシナリオを含む。
論文 参考訳(メタデータ) (2023-11-17T18:57:40Z) - $\pi$-Tuning: Transferring Multimodal Foundation Models with Optimal
Multi-task Interpolation [30.551283402200657]
$pi$-Tuningは、視覚、言語、視覚言語タスクのための普遍的なパラメータ効率の伝達学習手法である。
ターゲットの下流タスクを支援するために、同様のタスクから学んだ軽量なタスク固有の専門家のパラメータを集約する。
論文 参考訳(メタデータ) (2023-04-27T17:49:54Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - Beyond Just Vision: A Review on Self-Supervised Representation Learning
on Multimodal and Temporal Data [10.006890915441987]
自己教師型学習の普及は、従来のモデルがトレーニングに大量の十分な注釈付きデータを必要とするという事実によって引き起こされる。
モデルの差別的事前学習を通じて、訓練データの効率を向上させるための自己指導手法が導入された。
我々は,時間的データに対するマルチモーダルな自己教師型学習手法の総合的なレビューを初めて提供することを目的とする。
論文 参考訳(メタデータ) (2022-06-06T04:59:44Z) - Efficient Device Scheduling with Multi-Job Federated Learning [64.21733164243781]
本稿では,複数のジョブの並列学習プロセスを実現するための,新しいマルチジョブフェデレーション学習フレームワークを提案する。
コストを最小化しつつ、複数のジョブに対してデバイスをスケジュールする強化学習法とベイズ最適化法を提案する。
提案手法は,トレーニング時間(最大8.67倍高速)と精度(最大44.6%高)において,ベースラインアプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2021-12-11T08:05:11Z) - Channel Exchanging Networks for Multimodal and Multitask Dense Image
Prediction [125.18248926508045]
本稿では,マルチモーダル融合とマルチタスク学習の両方に適用可能な,自己適応的でパラメータフリーなチャネル交換ネットワーク(CEN)を提案する。
CENは異なるモダリティのワーク間でチャネルを動的に交換する。
濃密な画像予測を応用するために、CENの有効性は4つの異なるシナリオで検証される。
論文 参考訳(メタデータ) (2021-12-04T05:47:54Z) - Online feature selection for rapid, low-overhead learning in networked
systems [0.0]
我々は、多数の利用可能なデータソースから小さな機能セットを選択する、OSFSと呼ばれるオンラインアルゴリズムを提案する。
OSFSは、データソース数を桁違いに削減するために、数百の計測を必要とする。
論文 参考訳(メタデータ) (2020-10-28T12:00:42Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。