論文の概要: Conditional Mutual information-based Contrastive Loss for Financial Time
Series Forecasting
- arxiv url: http://arxiv.org/abs/2002.07638v3
- Date: Fri, 7 May 2021 10:37:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 19:23:49.598287
- Title: Conditional Mutual information-based Contrastive Loss for Financial Time
Series Forecasting
- Title(参考訳): 金融時系列予測のための条件付き相互情報に基づくコントラスト損失
- Authors: Hanwei Wu, Ather Gattami, Markus Flierl
- Abstract要約: 金融時系列予測のための表現学習フレームワークを提案する。
本稿では、まず時系列データからコンパクトな表現を学習し、次に学習した表現を用いて、時系列の動きを予測するためのより単純なモデルを訓練する。
- 参考スコア(独自算出の注目度): 12.0855096102517
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a representation learning framework for financial time series
forecasting. One challenge of using deep learning models for finance
forecasting is the shortage of available training data when using small
datasets. Direct trend classification using deep neural networks trained on
small datasets is susceptible to the overfitting problem. In this paper, we
propose to first learn compact representations from time series data, then use
the learned representations to train a simpler model for predicting time series
movements. We consider a class-conditioned latent variable model. We train an
encoder network to maximize the mutual information between the latent variables
and the trend information conditioned on the encoded observed variables. We
show that conditional mutual information maximization can be approximated by a
contrastive loss. Then, the problem is transformed into a classification task
of determining whether two encoded representations are sampled from the same
class or not. This is equivalent to performing pairwise comparisons of the
training datapoints, and thus, improves the generalization ability of the
encoder network. We use deep autoregressive models as our encoder to capture
long-term dependencies of the sequence data. Empirical experiments indicate
that our proposed method has the potential to advance state-of-the-art
performance.
- Abstract(参考訳): 金融時系列予測のための表現学習フレームワークを提案する。
金融予測にディープラーニングモデルを使用する場合の課題のひとつは、小さなデータセットを使用する場合のトレーニングデータの不足である。
小さなデータセットでトレーニングされたディープニューラルネットワークによる直接トレンド分類は、オーバーフィッティング問題の影響を受けやすい。
本稿では,まず時系列データからコンパクト表現を学習し,学習した表現を用いてより単純なモデルを用いて時系列運動の予測を行う。
クラス条件付き潜在変数モデルを考える。
我々は,エンコーダネットワークをトレーニングし,潜在変数と符号化された観測変数に条件付きトレンド情報との相互情報を最大化する。
条件付き相互情報最大化はコントラスト損失によって近似できることを示す。
そして、同じクラスから2つの符号化された表現がサンプリングされるか否かを判定する分類タスクに変換する。
これはトレーニングデータポイントをペアで比較することと同値であり、エンコーダネットワークの一般化能力が向上する。
エンコーダとして深層自己回帰モデルを用いて,シーケンスデータの長期的依存関係をキャプチャする。
実験により,提案手法は最先端性能を向上する可能性が示唆された。
関連論文リスト
- Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Contrastive Difference Predictive Coding [79.74052624853303]
本研究では、時系列データの断片を縫合して、将来の事象の予測を学習するために必要なデータの量を減少させるコントラッシブ予測符号化の時間差版を導入する。
目的条件付きRLの非政治アルゴリズムを導出するために,この表現学習手法を適用した。
論文 参考訳(メタデータ) (2023-10-31T03:16:32Z) - Explainable Parallel RCNN with Novel Feature Representation for Time
Series Forecasting [0.0]
時系列予測はデータサイエンスにおける根本的な課題である。
RNNとCNNを組み合わせた並列ディープラーニングフレームワークを開発した。
3つのデータセットに対する大規模な実験により,本手法の有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-05-08T17:20:13Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Time Series Contrastive Learning with Information-Aware Augmentations [57.45139904366001]
コントラスト学習の鍵となる要素は、いくつかの先行を示唆する適切な拡張を選択して、実現可能な正のサンプルを構築することである。
対照的な学習タスクやデータセットに意味のある時系列データの増大をどうやって見つけるかは、未解決の問題である。
本稿では,時系列表現学習のための最適な拡張を適応的に選択する情報認識拡張を用いた新しいコントラスト学習手法であるInfoTSを提案する。
論文 参考訳(メタデータ) (2023-03-21T15:02:50Z) - The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - Ti-MAE: Self-Supervised Masked Time Series Autoencoders [16.98069693152999]
本稿では,Ti-MAEという新しいフレームワークを提案する。
Ti-MAEは、埋め込み時系列データをランダムにマスクアウトし、オートエンコーダを学び、ポイントレベルでそれらを再構築する。
いくつかの公開実世界のデータセットの実験では、マスク付きオートエンコーディングのフレームワークが生データから直接強力な表現を学習できることが示されている。
論文 参考訳(メタデータ) (2023-01-21T03:20:23Z) - Discrete Key-Value Bottleneck [95.61236311369821]
ディープニューラルネットワークは、データストリームがi.d.d.であり、ラベル付きデータが豊富である分類タスクでうまく機能する。
この課題に対処した強力なアプローチの1つは、手軽に利用可能なデータ量に対する大規模なエンコーダの事前トレーニングと、タスク固有のチューニングである。
しかし、新しいタスクを考えると、多くの重みを微調整する必要があるため、エンコーダの重みを更新することは困難であり、その結果、以前のタスクに関する情報を忘れてしまう。
この問題に対処するモデルアーキテクチャを提案し,個別かつ学習可能なキー値符号のペアを含む離散的ボトルネックの上に構築する。
論文 参考訳(メタデータ) (2022-07-22T17:52:30Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Improved Predictive Deep Temporal Neural Networks with Trend Filtering [22.352437268596674]
本稿では,ディープニューラルネットワークとトレンドフィルタリングに基づく新しい予測フレームワークを提案する。
我々は,学習データをトレンドフィルタリングによって時間的に処理した場合,深部時相ニューラルネットワークの予測性能が向上することを明らかにする。
論文 参考訳(メタデータ) (2020-10-16T08:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。