論文の概要: Synergistic Formulaic Alpha Generation for Quantitative Trading based on
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2401.02710v1
- Date: Fri, 5 Jan 2024 08:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:29:18.368817
- Title: Synergistic Formulaic Alpha Generation for Quantitative Trading based on
Reinforcement Learning
- Title(参考訳): 強化学習に基づく量的トレーディングのための相乗的公式アルファ生成
- Authors: Hong-Gi Shin, Sukhyun Jeong, Eui-Yeon Kim, Sungho Hong, Young-Jin Cho,
Yong-Hoon Choi
- Abstract要約: 本稿では,既存のアルファファクタマイニング手法を探索空間を拡張して拡張する手法を提案する。
モデルの性能評価指標として,情報係数 (IC) とランク情報係数 (Rank IC) を用いる。
- 参考スコア(独自算出の注目度): 1.3980986259786223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mining of formulaic alpha factors refers to the process of discovering and
developing specific factors or indicators (referred to as alpha factors) for
quantitative trading in stock market. To efficiently discover alpha factors in
vast search space, reinforcement learning (RL) is commonly employed. This paper
proposes a method to enhance existing alpha factor mining approaches by
expanding a search space and utilizing pretrained formulaic alpha set as
initial seed values to generate synergistic formulaic alpha. We employ
information coefficient (IC) and rank information coefficient (Rank IC) as
performance evaluation metrics for the model. Using CSI300 market data, we
conducted real investment simulations and observed significant performance
improvement compared to existing techniques.
- Abstract(参考訳): 公式アルファファクターの採掘(英: formulaic alpha factors)とは、株式市場における量的取引のための特定の要因や指標(アルファファクターと呼ばれる)を発見し開発する過程である。
探索空間のアルファ因子を効率的に発見するために、強化学習(RL)が一般的である。
本稿では,探索空間を拡張し,事前学習した公式αセットを初期シード値として利用し,相乗的な公式αを生成することにより,既存のアルファファクターマイニング手法を強化する手法を提案する。
モデルの性能評価指標として,情報係数 (IC) とランク情報係数 (Rank IC) を用いる。
csi300市場データを用いて実際の投資シミュレーションを行い,既存の手法と比較して有意な性能改善が見られた。
関連論文リスト
- How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Data-Centric Long-Tailed Image Recognition [49.90107582624604]
ロングテールモデルは高品質なデータに対する強い需要を示している。
データ中心のアプローチは、モデルパフォーマンスを改善するために、データの量と品質の両方を強化することを目的としています。
現在、情報強化の有効性を説明するメカニズムに関する研究が不足している。
論文 参考訳(メタデータ) (2023-11-03T06:34:37Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Alpha-GPT: Human-AI Interactive Alpha Mining for Quantitative Investment [9.424699345940725]
我々は,人間とAIの相互作用を導入し,新たなアルファマイニングパラダイムを提案する。
また,新たな対話型アルファマイニングシステムであるAlpha-GPTを開発した。
論文 参考訳(メタデータ) (2023-07-31T16:40:06Z) - Secrets of RLHF in Large Language Models Part I: PPO [81.01936993929127]
大規模言語モデル (LLMs) は、人工知能の進歩のためのブループリントを定式化した。
人間のフィードバックによる強化学習(RLHF)がこの追求を支える重要な技術パラダイムとして出現する。
本稿では、RLHFの枠組みを解明し、PPOの内部構造を再評価し、PPOアルゴリズムを構成する部分が政策エージェントの訓練にどのように影響するかを考察する。
論文 参考訳(メタデータ) (2023-07-11T01:55:24Z) - Generating Synergistic Formulaic Alpha Collections via Reinforcement
Learning [20.589583396095225]
我々は、相乗的なアルファの集合のマイニングを優先する新しいアルファマイニングフレームワークを提案する。
我々のフレームワークは、これまでのアプローチよりも高いリターンを達成することができることを示す。
論文 参考訳(メタデータ) (2023-05-25T13:41:07Z) - Making Machine Learning Datasets and Models FAIR for HPC: A Methodology
and Case Study [0.0]
FAIR Guiding Principlesは、デジタルコンテンツの発見可能性、アクセシビリティ、相互運用性、再利用性を改善することを目的としている。
これらの原則は、ハイパフォーマンスコンピューティングのための機械学習ベースのプログラム分析と最適化の分野において、まだ広く採用されていない。
我々は、既存のFAIRness評価と改善技術を調査した後、HPCデータセットと機械学習モデルFAIRを作成する手法を設計する。
論文 参考訳(メタデータ) (2022-11-03T18:45:46Z) - Tuning the Weights: The Impact of Initial Matrix Configurations on
Successor Features Learning Efficacy [0.0]
本研究では,Reinforcement Learning (RL)エージェントの学習効率と収束性に及ぼす継手特徴量(SF)の重み行列に対する異なる戦略の影響について検討した。
グリッド・ワールド・パラダイムを用いて、SF重み行列が恒等行列、ゼロ行列、ランダムに生成された行列のいずれかであるRLエージェントの性能を比較する。
その結果、ランダムな行列を持つRLエージェントは、最適なSR位置場に素早く到達し、より迅速に値の誤差を減少させることを示した。
論文 参考訳(メタデータ) (2021-11-03T04:42:03Z) - KnowSR: Knowledge Sharing among Homogeneous Agents in Multi-agent
Reinforcement Learning [16.167201058368303]
本稿では,KnowSRと呼ばれるマルチエージェント強化学習(MARL)アルゴリズムの適応手法を提案する。
我々は、知識蒸留(KD)の概念を用いて、訓練フェーズを短縮するためにエージェント間で知識を共有する。
KnowSRの堅牢性と有効性を実証的に示すために,我々は,協調的・競合的なシナリオにおける最先端のMARLアルゴリズムの広範な実験を行った。
論文 参考訳(メタデータ) (2021-05-25T02:19:41Z) - Alchemy: A structured task distribution for meta-reinforcement learning [52.75769317355963]
本稿では,構造的リッチネスと構造的透明性を組み合わせたメタRL研究のための新しいベンチマークを提案する。
Alchemyは3Dビデオゲームで、エピソードからエピソードまで手続き的に再サンプリングされる潜伏した因果構造を含んでいる。
本稿では,アルケミーの強力なRL剤について検討し,その1つについて詳細な分析を行った。
論文 参考訳(メタデータ) (2021-02-04T23:40:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。