論文の概要: Denoised Labels for Financial Time-Series Data via Self-Supervised
Learning
- arxiv url: http://arxiv.org/abs/2112.10139v1
- Date: Sun, 19 Dec 2021 12:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 16:09:23.012261
- Title: Denoised Labels for Financial Time-Series Data via Self-Supervised
Learning
- Title(参考訳): 自己教師付き学習による金融時系列データのための分節ラベル
- Authors: Yanqing Ma, Carmine Ventre, Maria Polukarov
- Abstract要約: この研究は、トレーディングにおける画像分類と自己指導型学習の成功から着想を得ている。
本稿では,コンピュータビジョンの手法を金融時系列に適用し,騒音暴露を減らすという考え方について検討する。
以上の結果から,分類ラベルにより下流学習アルゴリズムの性能が向上することが示唆された。
- 参考スコア(独自算出の注目度): 5.743034166791607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The introduction of electronic trading platforms effectively changed the
organisation of traditional systemic trading from quote-driven markets into
order-driven markets. Its convenience led to an exponentially increasing amount
of financial data, which is however hard to use for the prediction of future
prices, due to the low signal-to-noise ratio and the non-stationarity of
financial time series. Simpler classification tasks -- where the goal is to
predict the directions of future price movement -- via supervised learning
algorithms, need sufficiently reliable labels to generalise well. Labelling
financial data is however less well defined than other domains: did the price
go up because of noise or because of signal? The existing labelling methods
have limited countermeasures against noise and limited effects in improving
learning algorithms. This work takes inspiration from image classification in
trading and success in self-supervised learning. We investigate the idea of
applying computer vision techniques to financial time-series to reduce the
noise exposure and hence generate correct labels. We look at the label
generation as the pretext task of a self-supervised learning approach and
compare the naive (and noisy) labels, commonly used in the literature, with the
labels generated by a denoising autoencoder for the same downstream
classification task. Our results show that our denoised labels improve the
performances of the downstream learning algorithm, for both small and large
datasets. We further show that the signals we obtain can be used to effectively
trade with binary strategies. We suggest that with proposed techniques,
self-supervised learning constitutes a powerful framework for generating
"better" financial labels that are useful for studying the underlying patterns
of the market.
- Abstract(参考訳): 電子取引プラットフォームの導入は、従来のシステム取引の組織を、見積もり駆動市場から注文駆動市場へと実質的に変えた。
その利便性は、金融時系列の低信号-雑音比と非定常性のために、将来的な価格予測に使用するのが困難である、指数関数的に増加する財務データに繋がった。
教師付き学習アルゴリズムを通じて将来の価格変動の方向を予測することを目指す、より単純な分類タスクは、十分に一般化するために十分な信頼性のあるラベルが必要である。
しかし、財務データの遅延は、他のドメインと比べてあまり明確に定義されていない。
既存のラベル付け手法では,ノイズ対策や学習アルゴリズムの改善効果が限定されている。
この研究は、取引における画像分類と自己監督学習の成功から着想を得ている。
本研究では,金融時系列にコンピュータビジョン技術を適用することで騒音の露光を低減し,適切なラベルを生成する方法を検討する。
ラベル生成を,自己教師付き学習手法のプリテキストタスクとして捉え,文献で一般的に使用されるナイーブラベル(およびノイズラベル)と,同一下流分類タスクでデノージングオートエンコーダが生成するラベルを比較した。
提案手法は,小データセットと大規模データセットの両方において,ダウンストリーム学習アルゴリズムの性能が向上することを示す。
さらに,我々が得るシグナルは,バイナリ戦略と効果的に取引できることを示す。
提案手法により,自己指導型学習は,市場の基本パターンを研究する上で有用な,金融ラベルを生成するための強力な枠組みとなることが示唆された。
関連論文リスト
- ERASE: Error-Resilient Representation Learning on Graphs for Label Noise
Tolerance [53.73316938815873]
本稿では, ERASE (Error-Resilient representation learning on graphs for lAbel noiSe tolerancE) という手法を提案する。
ERASEは、プロトタイプの擬似ラベルとプロパゲーションされた識別ラベルを組み合わせて、表現をエラーレジリエンスで更新する。
提案手法は, 広い雑音レベルにおいて, 複数のベースラインをクリアマージンで上回り, 高いスケーラビリティを享受できる。
論文 参考訳(メタデータ) (2023-12-13T17:59:07Z) - Unleashing the Potential of Regularization Strategies in Learning with
Noisy Labels [65.92994348757743]
クロスエントロピー損失を用いた単純なベースラインと、広く使われている正規化戦略を組み合わせることで、最先端の手法より優れていることを示す。
この結果から,正規化戦略の組み合わせは,ノイズラベルを用いた学習の課題に対処する上で,複雑なアルゴリズムよりも効果的であることが示唆された。
論文 参考訳(メタデータ) (2023-07-11T05:58:20Z) - AutoWS: Automated Weak Supervision Framework for Text Classification [1.748907524043535]
本稿では、ドメインエキスパートへの依存を減らしつつ、弱い監督プロセスの効率を高めるための新しい枠組みを提案する。
本手法では,ラベルクラス毎にラベル付きサンプルの小さなセットが必要であり,多数のラベル付きデータにノイズ付きラベルを割り当てるラベル付き関数のセットを自動生成する。
論文 参考訳(メタデータ) (2023-02-07T07:12:05Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - Investigating Power laws in Deep Representation Learning [4.996066540156903]
本研究では,非ラベルデータセットにおける表現の質を評価するためのフレームワークを提案する。
表現学習に影響を与える3つの重要な属性に対して、電力法則の係数$alpha$を推定する。
特に$alpha$はラベルの知識のない表現から計算可能であり、非ラベル付きデータセットにおける表現の質を評価するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2022-02-11T18:11:32Z) - Data Consistency for Weakly Supervised Learning [15.365232702938677]
機械学習モデルのトレーニングには、大量の人間が注釈付けしたデータを使用する。
本稿では、雑音ラベル、すなわち弱い信号を処理する新しい弱監督アルゴリズムを提案する。
本研究では,テキストと画像の分類作業において,最先端の弱い監督手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2022-02-08T16:48:19Z) - Trade When Opportunity Comes: Price Movement Forecasting via Locality-Aware Attention and Iterative Refinement Labeling [11.430440350359993]
2つの主成分を持つ価格変動予測フレームワークであるLARAを提案する。
LA-Attentionはマスク付きアテンションスキームを通じて潜在的に有益なサンプルを抽出する。
RA-Labelingは、潜在的に利益の出るサンプルのうるさいラベルを洗練させる。
LARAは、Qlibの量的投資プラットフォーム上で、いくつかの機械学習ベースの手法を大幅に上回っている。
論文 参考訳(メタデータ) (2021-07-26T05:52:42Z) - Boosting Semi-Supervised Face Recognition with Noise Robustness [54.342992887966616]
本稿では,自動ラベルによるラベル雑音に対して頑健な半教師付き顔認識に対する効果的な解法を提案する。
そこで我々は,gnが強化するロバストな学習能力に基づく,ノイズロバスト学習ラベリング(nroll)という,半教師付き顔認識ソリューションを開発した。
論文 参考訳(メタデータ) (2021-05-10T14:43:11Z) - Active Learning for Noisy Data Streams Using Weak and Strong Labelers [3.9370369973510746]
我々は、人間のラベリング能力に触発された、新しい弱くて強力なラベリング問題を考える。
そこで本研究では,フィルタリング,多様性の追加,情報的サンプル選択,ラベル抽出の4段階からなるオンライン能動学習アルゴリズムを提案する。
我々は,個々のサンプルの情報とモデル信頼度を組み合わせることで,情報ゲインを測定する決定関数を導出する。
論文 参考訳(メタデータ) (2020-10-27T09:18:35Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。