論文の概要: Generating Synergistic Formulaic Alpha Collections via Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2306.12964v1
- Date: Thu, 25 May 2023 13:41:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-26 01:11:19.332683
- Title: Generating Synergistic Formulaic Alpha Collections via Reinforcement
Learning
- Title(参考訳): 強化学習による相乗的形式的アルファコレクションの生成
- Authors: Shuo Yu, Hongyan Xue, Xiang Ao, Feiyang Pan, Jia He, Dandan Tu, and
Qing He
- Abstract要約: 我々は、相乗的なアルファの集合のマイニングを優先する新しいアルファマイニングフレームワークを提案する。
我々のフレームワークは、これまでのアプローチよりも高いリターンを達成することができることを示す。
- 参考スコア(独自算出の注目度): 20.589583396095225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the field of quantitative trading, it is common practice to transform raw
historical stock data into indicative signals for the market trend. Such
signals are called alpha factors. Alphas in formula forms are more
interpretable and thus favored by practitioners concerned with risk. In
practice, a set of formulaic alphas is often used together for better modeling
precision, so we need to find synergistic formulaic alpha sets that work well
together. However, most traditional alpha generators mine alphas one by one
separately, overlooking the fact that the alphas would be combined later. In
this paper, we propose a new alpha-mining framework that prioritizes mining a
synergistic set of alphas, i.e., it directly uses the performance of the
downstream combination model to optimize the alpha generator. Our framework
also leverages the strong exploratory capabilities of reinforcement
learning~(RL) to better explore the vast search space of formulaic alphas. The
contribution to the combination models' performance is assigned to be the
return used in the RL process, driving the alpha generator to find better
alphas that improve upon the current set. Experimental evaluations on
real-world stock market data demonstrate both the effectiveness and the
efficiency of our framework for stock trend forecasting. The investment
simulation results show that our framework is able to achieve higher returns
compared to previous approaches.
- Abstract(参考訳): 量的取引の分野では、生株データを市場動向を示す指標に転換することが一般的である。
このような信号はアルファ因子と呼ばれる。
公式形式のアルファはより解釈可能であるため、リスクに関する実践者から好まれる。
実際、一組の定式アルファはより正確なモデリングのためにしばしば一緒に使用されるので、相乗的な定式アルファ集合がうまく働く必要がある。
しかし、ほとんどの伝統的なアルファ生成器はアルファを個別に採掘し、後にアルファが結合されるという事実を見渡した。
本稿では,新しいアルファマイニングフレームワークを提案する。アルファ生成器の最適化のために,下流の組み合わせモデルの性能を直接利用するという,相乗的なアルファセットのマイニングを優先する。
我々のフレームワークはまた、強化学習(RL)の強力な探索能力を活用し、公式アルファの広大な探索空間をよりよく探索する。
組み合わせモデルの性能への貢献は、RLプロセスで使用されるリターンに割り当てられ、アルファジェネレータを駆動して、現在のセットを改善したより良いアルファを見つける。
実世界の株式市場データの実験的評価は, 株価トレンド予測のための枠組みの有効性と有効性を示している。
投資シミュレーションの結果,我々のフレームワークは従来の手法に比べて高いリターンを達成できることがわかった。
関連論文リスト
- Improving Reinforcement Learning from Human Feedback with Efficient
Reward Model Ensemble [71.44669705576263]
人間のフィードバックからの強化学習(Reinforcement Learning from Human Feedback, RLHF)は、大きな言語モデルと人間の価値を整合させる手法として広く採用されている。
しかし、RLHFは限られた量の人間の嗜好データで訓練された報酬モデルに依存している。
報奨モデルによりより正確な予測が可能となる報奨アンサンブル法を提案する。
論文 参考訳(メタデータ) (2024-01-30T00:17:37Z) - Synergistic Formulaic Alpha Generation for Quantitative Trading based on
Reinforcement Learning [1.3980986259786223]
本稿では,既存のアルファファクタマイニング手法を探索空間を拡張して拡張する手法を提案する。
モデルの性能評価指標として,情報係数 (IC) とランク情報係数 (Rank IC) を用いる。
論文 参考訳(メタデータ) (2024-01-05T08:49:13Z) - DiffusionMat: Alpha Matting as Sequential Refinement Learning [87.76572845943929]
DiffusionMatは、粗いアルファマットから洗練されたアルファマットへの移行に拡散モデルを利用する画像マッチングフレームワークである。
補正モジュールは、各復調ステップで出力を調整し、最終的な結果が入力画像の構造と一致していることを保証する。
その結果,DiffusionMatは既存の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-11-22T17:16:44Z) - Improving Generalization of Alignment with Human Preferences through
Group Invariant Learning [56.19242260613749]
Reinforcement Learning from Human Feedback (RLHF) は、人間の好みに合わせた反応の生成を可能にする。
以前の研究は、強化学習(RL)がしばしばショートカットを利用して高い報酬を獲得し、挑戦的なサンプルを見落としていることを示している。
本稿では,複数のデータグループやドメインにまたがる一貫したポリシをRLで学習する,新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-18T13:54:15Z) - Alpha-GPT: Human-AI Interactive Alpha Mining for Quantitative Investment [9.424699345940725]
我々は,人間とAIの相互作用を導入し,新たなアルファマイニングパラダイムを提案する。
また,新たな対話型アルファマイニングシステムであるAlpha-GPTを開発した。
論文 参考訳(メタデータ) (2023-07-31T16:40:06Z) - Beating the Best: Improving on AlphaFold2 at Protein Structure
Prediction [1.3124513975412255]
ARStackはAlphaFold2とRosTTAFoldを大きく上回っている。
αFold2とRosTTAFoldの2種類の非ホモログタンパク質と、αFold2とRoseTTAFoldの2種類のタンパク質構造を用いて、これを厳密に実証した。
論文 参考訳(メタデータ) (2023-01-18T14:39:34Z) - Unsupervisedly Prompting AlphaFold2 for Few-Shot Learning of Accurate
Folding Landscape and Protein Structure Prediction [28.630603355510324]
そこで我々は,メタ生成モデルであるEvoGenを提案し,貧弱なMSAターゲットに対するAlphaFold2のアンダーパフォーマンスを改善する。
EvoGenは、キャリブレーションまたは実質的に生成されたホモログシーケンスでモデルにプロンプトすることで、AlphaFold2を低データで正確に折り畳むのに役立つ。
論文 参考訳(メタデータ) (2022-08-20T10:23:17Z) - AlphaEvolve: A Learning Framework to Discover Novel Alphas in
Quantitative Investment [16.27557073668891]
スカラー、ベクター、マトリックスの特徴をモデル化する新しいアルファクラスを紹介します。
新しいアルファは高い精度で戻りを予測し、弱い相関集合にマイニングすることができる。
我々は,新しいアルファを生成するために,AutoMLに基づく新しいアルファマイニングフレームワークであるAlphaEvolveを提案する。
論文 参考訳(メタデータ) (2021-03-30T09:28:41Z) - Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box
Estimation [85.22775182688798]
この研究はAlpha-Refineと呼ばれる新しい、柔軟で正確な改良モジュールを提案する。
これにより、ベーストラッカーのボックス推定品質が大幅に向上する。
TrackingNet, LaSOT, GOT-10K, VOT 2020 ベンチマークの実験では,我々のアプローチがベーストラッカのパフォーマンスを大幅に改善し,遅延がほとんどなかった。
論文 参考訳(メタデータ) (2020-12-12T13:33:25Z) - Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box
Estimation [87.53808756910452]
そこで我々は,Alpha-Refineと呼ばれる新しい,フレキシブルで高精度な改良モジュールを提案する。
正確なピクセルワイド相関層と空間認識の非局所層を利用して特徴を融合させ、バウンディングボックス、コーナー、マスクの3つの相補的な出力を予測する。
提案するAlpha-Refineモジュールは,DiMP,ATOM,SiamRPN++,RTMDNet,ECOの5つの有名かつ最先端のベーストラッカーに適用する。
論文 参考訳(メタデータ) (2020-07-04T07:02:25Z) - Reinforcement Learning with Augmented Data [97.42819506719191]
本稿では,ほとんどのRLアルゴリズムを拡張可能なシンプルなプラグイン・アンド・プレイモジュールであるReinforcement Learning with Augmented Data (RAD)を提案する。
本稿では,RLアルゴリズムが複雑な最先端手法より優れていることを示すために,ランダム翻訳,作物,カラージッタ,パッチカットアウト,ランダム畳み込み,振幅スケールなどの拡張法を提案する。
論文 参考訳(メタデータ) (2020-04-30T17:35:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。