論文の概要: Large Language Models and Futures Price Factors in China
- arxiv url: http://arxiv.org/abs/2509.23609v1
- Date: Sun, 28 Sep 2025 03:24:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.323795
- Title: Large Language Models and Futures Price Factors in China
- Title(参考訳): 中国における大規模言語モデルと今後の価格要因
- Authors: Yuhan Cheng, Heyang Zhou, Yanchu Liu,
- Abstract要約: 我々は、中国先進国市場向けの因子モデル構築において、GPT(Generative Pre-trained Transformer)のような大規模言語モデルの能力を活用している。
長短長の戦略と長短の戦略により、単一要素と多要素のポートフォリオを設計するための40の要素をうまく獲得する。
- 参考スコア(独自算出の注目度): 1.133200525901322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We leverage the capacity of large language models such as Generative Pre-trained Transformer (GPT) in constructing factor models for Chinese futures markets. We successfully obtain 40 factors to design single-factor and multi-factor portfolios through long-short and long-only strategies, conducting backtests during the in-sample and out-of-sample period. Comprehensive empirical analysis reveals that GPT-generated factors deliver remarkable Sharpe ratios and annualized returns while maintaining acceptable maximum drawdowns. Notably, the GPT-based factor models also achieve significant alphas over the IPCA benchmark. Moreover, these factors demonstrate significant performance across extensive robustness tests, particularly excelling after the cutoff date of GPT's training data.
- Abstract(参考訳): 我々は、中国先進国市場向けの因子モデル構築において、GPT(Generative Pre-trained Transformer)のような大規模言語モデルの能力を活用している。
シングルファクターとマルチファクターのポートフォリオをロングショートとロングオンリーの戦略で設計し、インサンプルとアウトオブサンプルの期間にバックテストを行う40の要因をうまく得ることができた。
包括的実証分析により、GPT生成因子は、許容できる最大ドローダウンを維持しながら、シャープ比と年率リターンを著しく高めることが明らかとなった。
特に、GPTベースの因子モデルでは、IPCAベンチマークよりも大きなアルファが達成されている。
さらに,これらの要因は, GPTのトレーニングデータのカットオフ日後に特に優れ, 広範囲な堅牢性試験において有意な性能を示した。
関連論文リスト
- FactorGCL: A Hypergraph-Based Factor Model with Temporal Residual Contrastive Learning for Stock Returns Prediction [16.70420232738428]
時間的残留的コントラスト学習(FactorGCL)を用いたハイパーグラフに基づく因子モデルを提案する。
ストックリターンを予測するために, 人為的に設計された先行要因を補う隠蔽因子を抽出するために, カスケード残差ハイパーグラフアーキテクチャを設計する。
実株市場データに関する我々の実験は、FacterGCLが既存の最先端手法より優れていることを示している。
論文 参考訳(メタデータ) (2025-02-05T12:37:15Z) - STORM: A Spatio-Temporal Factor Model Based on Dual Vector Quantized Variational Autoencoders for Financial Trading [55.02735046724146]
金融取引では、ファクターモデルが資産の価格設定や過大なリターンの獲得に広く利用されている。
双対ベクトル量子化変分オートエンコーダを用いた時空間ファクトラーモデルSTORMを提案する。
ストームは時間的および空間的な視点からストックの特徴を抽出し、これらの特徴を微細で意味的なレベルで融合し整列させ、その要素を多次元の埋め込みとして表現する。
論文 参考訳(メタデータ) (2024-12-12T17:15:49Z) - BreakGPT: Leveraging Large Language Models for Predicting Asset Price Surges [55.2480439325792]
本稿では,時系列予測や資産価格の急上昇の予測に特化して,新たな大規模言語モデル(LLM)アーキテクチャであるBreakGPTを紹介する。
我々は、最小限のトレーニングで財務予測を行うための有望なソリューションとしてBreakGPTを紹介し、局所的およびグローバルな時間的依存関係をキャプチャする強力な競合相手として紹介する。
論文 参考訳(メタデータ) (2024-11-09T05:40:32Z) - Harnessing Earnings Reports for Stock Predictions: A QLoRA-Enhanced LLM Approach [6.112119533910774]
本稿では、命令ベースの新しい手法と量子化低ランク適応(QLoRA)圧縮を組み合わせることで、LLM(Large Language Models)命令を微調整することで、高度なアプローチを提案する。
近年の市場指標やアナリストの成績等「外部要因」を統合して、リッチで教師付きデータセットを作成する。
この研究は、最先端のAIを微調整された財務データに統合する能力を実証するだけでなく、AI駆動の財務分析ツールを強化するための将来の研究の道を開く。
論文 参考訳(メタデータ) (2024-08-13T04:53:31Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Uncertainty-Aware Lookahead Factor Models for Quantitative Investing [25.556824322478935]
最初にシミュレーションを通して、将来の基本に基づいて計算された要因によって株式を選択することができれば、ポートフォリオは標準因子モデルよりもはるかに優れていることを示します。
本稿では、これらの予測された未来基本を従来の要因にプラグインするルックアヘッドファクターモデルを提案する。
振り返り分析では、業界レベルのポートフォリオシミュレータを活用し、年次リターンとシャープ比の同時改善を示す。
論文 参考訳(メタデータ) (2020-07-07T00:18:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。