論文の概要: DiffsFormer: A Diffusion Transformer on Stock Factor Augmentation
- arxiv url: http://arxiv.org/abs/2402.06656v1
- Date: Mon, 5 Feb 2024 03:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 13:54:35.813063
- Title: DiffsFormer: A Diffusion Transformer on Stock Factor Augmentation
- Title(参考訳): diffsformer:ストックファクター増強における拡散トランスフォーマー
- Authors: Yuan Gao, Haokun Chen, Xiang Wang, Zhicai Wang, Xue Wang, Jinyang Gao,
Bolin Ding
- Abstract要約: トランスフォーマーアーキテクチャを用いたストックファクタ生成のための拡散モデル(DiffsFormer)を提案する。
特定の下流タスクを提示すると、既存のサンプルを編集してトレーニング手順を強化するためにDiffsFormerを使用します。
提案手法は,各データセットの年次リターン率の7.2%と27.8%を相対的に改善する。
- 参考スコア(独自算出の注目度): 36.75453713794983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning models have demonstrated remarkable efficacy and efficiency
in a wide range of stock forecasting tasks. However, the inherent challenges of
data scarcity, including low signal-to-noise ratio (SNR) and data homogeneity,
pose significant obstacles to accurate forecasting. To address this issue, we
propose a novel approach that utilizes artificial intelligence-generated
samples (AIGS) to enhance the training procedures. In our work, we introduce
the Diffusion Model to generate stock factors with Transformer architecture
(DiffsFormer). DiffsFormer is initially trained on a large-scale source domain,
incorporating conditional guidance so as to capture global joint distribution.
When presented with a specific downstream task, we employ DiffsFormer to
augment the training procedure by editing existing samples. This editing step
allows us to control the strength of the editing process, determining the
extent to which the generated data deviates from the target domain. To evaluate
the effectiveness of DiffsFormer augmented training, we conduct experiments on
the CSI300 and CSI800 datasets, employing eight commonly used machine learning
models. The proposed method achieves relative improvements of 7.2% and 27.8% in
annualized return ratio for the respective datasets. Furthermore, we perform
extensive experiments to gain insights into the functionality of DiffsFormer
and its constituent components, elucidating how they address the challenges of
data scarcity and enhance the overall model performance. Our research
demonstrates the efficacy of leveraging AIGS and the DiffsFormer architecture
to mitigate data scarcity in stock forecasting tasks.
- Abstract(参考訳): 機械学習モデルは、幅広いストック予測タスクにおいて顕著な効果と効率を示した。
しかし、SNR(low signal-to-noise ratio)やデータ均一性といったデータ不足の固有の課題は、正確な予測に重大な障害をもたらす。
この問題に対処するために,AIGS(AIGS)を用いてトレーニング手順を強化する新しい手法を提案する。
本稿では,Transformerアーキテクチャ(DiffsFormer)を用いたストックファクタ生成のための拡散モデルを提案する。
diffsformerは当初、グローバルなジョイント分布を捉えるために条件付きガイダンスを組み込んだ、大規模なソースドメインでトレーニングされた。
特定の下流タスクを提示すると、既存のサンプルを編集してトレーニング手順を強化するためにDiffsFormerを使用します。
この編集ステップにより、生成したデータが対象領域から逸脱する範囲を決定することにより、編集プロセスの強度を制御できる。
DiffsFormerの強化トレーニングの有効性を評価するため、8つの一般的な機械学習モデルを用いて、CSI300およびCSI800データセットの実験を行った。
提案手法は,各データセットの年率7.2%,27.8%の相対的改善を実現する。
さらに、DiffsFormerとその構成コンポーネントの機能に関する洞察を得るために広範な実験を行い、データ不足の課題にどのように対処するかを解明し、全体的なモデルパフォーマンスを向上させる。
本研究は,AIGSとDiffsFormerアーキテクチャを活用して,ストック予測タスクにおけるデータ不足を軽減する効果を示す。
関連論文リスト
- A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - FedD2S: Personalized Data-Free Federated Knowledge Distillation [19.975420988169454]
本稿では,知識蒸留を活用した個人化フェデレートラーニング(pFL)のためのFedD2Sという新しい手法を提案する。
FedD2Sは、データフリーな知識蒸留プロセスにディープ・ツー・シャロー・レイヤ・ドロップング機構を組み込んで、局所モデルパーソナライズを強化している。
提案手法は,クライアント間の収束の高速化と公平性の向上を特徴とする,優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-16T17:36:51Z) - SMaRt: Improving GANs with Score Matching Regularity [94.81046452865583]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることを示す。
スコアマッチング規則性(SMaRt)を用いたGANの最適化を提案する。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - One-Shot Federated Learning with Classifier-Guided Diffusion Models [44.604485649167216]
ワンショット・フェデレーション・ラーニング (OSFL) は, 通信コストの低さから近年注目されている。
本稿では,OSFLに拡散モデルがもたらす新たな機会を探求し,FedCADOを提案する。
FedCADOはクライアントのディストリビューションに準拠したデータを生成し、その後、サーバ上で集約されたモデルをトレーニングします。
論文 参考訳(メタデータ) (2023-11-15T11:11:25Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - AST: Effective Dataset Distillation through Alignment with Smooth and
High-Quality Expert Trajectories [18.266786462036553]
我々は,Smoothと高品質なエキスパートトラジェクトリによるアライメントのための効果的なDDフレームワークASTを提案する。
さまざまなスケール、サイズ、解像度のデータセットに対して、広範な実験を行います。
論文 参考訳(メタデータ) (2023-10-16T16:13:53Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。