論文の概要: MetaTrader: An Reinforcement Learning Approach Integrating Diverse
Policies for Portfolio Optimization
- arxiv url: http://arxiv.org/abs/2210.01774v1
- Date: Thu, 1 Sep 2022 07:58:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 17:25:09.750441
- Title: MetaTrader: An Reinforcement Learning Approach Integrating Diverse
Policies for Portfolio Optimization
- Title(参考訳): metatrader:ポートフォリオ最適化のための多様なポリシーを統合する強化学習アプローチ
- Authors: Hui Niu, Siyuan Li, Jian Li
- Abstract要約: ポートフォリオ管理のための新しい2段階的アプローチを提案する。
最初の段階では、強化学習フレームワークに模倣学習を組み込む。
第2段階では、メタ政治を学び、市場状況を認識し、従うべき最も適切な学習方針を決定する。
- 参考スコア(独自算出の注目度): 17.759687104376855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Portfolio management is a fundamental problem in finance. It involves
periodic reallocations of assets to maximize the expected returns within an
appropriate level of risk exposure. Deep reinforcement learning (RL) has been
considered a promising approach to solving this problem owing to its strong
capability in sequential decision making. However, due to the non-stationary
nature of financial markets, applying RL techniques to portfolio optimization
remains a challenging problem. Extracting trading knowledge from various expert
strategies could be helpful for agents to accommodate the changing markets. In
this paper, we propose MetaTrader, a novel two-stage RL-based approach for
portfolio management, which learns to integrate diverse trading policies to
adapt to various market conditions. In the first stage, MetaTrader incorporates
an imitation learning objective into the reinforcement learning framework.
Through imitating different expert demonstrations, MetaTrader acquires a set of
trading policies with great diversity. In the second stage, MetaTrader learns a
meta-policy to recognize the market conditions and decide on the most proper
learned policy to follow. We evaluate the proposed approach on three real-world
index datasets and compare it to state-of-the-art baselines. The empirical
results demonstrate that MetaTrader significantly outperforms those baselines
in balancing profits and risks. Furthermore, thorough ablation studies validate
the effectiveness of the components in the proposed approach.
- Abstract(参考訳): ポートフォリオ管理は金融の基本的な問題である。
資産を定期的に再配置し、適切なレベルのリスク露光で期待されるリターンを最大化する。
深層強化学習(RL)は、シーケンシャルな意思決定における強力な能力のため、この問題を解決するための有望なアプローチと考えられている。
しかし、金融市場の非定常的な性質のため、ポートフォリオ最適化にRL技術を適用することは難しい問題である。
様々な専門家戦略から取引知識を抽出することは、市場の変化に対応するエージェントにとって有用である。
本稿では,ポートフォリオ管理のための新たな2段階RLベースのアプローチであるMetaTraderを提案する。
第一段階では、MetaTraderは強化学習フレームワークに模倣学習の目的を取り入れている。
さまざまな専門家のデモを真似て、metatraderは多様な貿易政策を獲得した。
第二段階では、MetaTraderはメタ政治を学び、市場状況を認識し、最も適切な学習方針を決定する。
提案手法を実世界の3つの指標データセットで評価し,それを最先端のベースラインと比較する。
実験の結果,メタトラダは利益とリスクのバランスにおいて,これらのベースラインを著しく上回っていることがわかった。
さらに, 徹底的なアブレーション研究により, 提案手法における成分の有効性が検証された。
関連論文リスト
- Automate Strategy Finding with LLM in Quant investment [4.46212317245124]
ポートフォリオ管理とアルファマイニングにおける定量株式投資のための新しい枠組みを提案する。
本稿では,大規模言語モデル(LLM)がマルチモーダル財務データからアルファ因子を抽出する枠組みを提案する。
中国株式市場の実験は、この枠組みが最先端のベースラインを大きく上回っていることを示している。
論文 参考訳(メタデータ) (2024-09-10T07:42:28Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - IMM: An Imitative Reinforcement Learning Approach with Predictive
Representation Learning for Automatic Market Making [33.23156884634365]
強化学習技術は量的取引において顕著な成功を収めた。
既存のRLベースのマーケットメイキング手法のほとんどは、単価レベルの戦略の最適化に重点を置いている。
Imitative Market Maker (IMM) は、準最適信号に基づく専門家の知識と直接的な政策相互作用の両方を活用する新しいRLフレームワークである。
論文 参考訳(メタデータ) (2023-08-17T11:04:09Z) - Factor Investing with a Deep Multi-Factor Model [123.52358449455231]
我々は、業界中立化と市場中立化モジュールを明確な財務見識をもって取り入れた、新しい深層多要素モデルを開発する。
実世界の株式市場データによるテストは、我々の深層多要素モデルの有効性を示している。
論文 参考訳(メタデータ) (2022-10-22T14:47:11Z) - Asset Allocation: From Markowitz to Deep Reinforcement Learning [2.0305676256390934]
資産配分とは、ポートフォリオの資産を常に再分配することでリスクと報酬のバランスをとることを目的とした投資戦略である。
我々は、多くの最適化手法の有効性と信頼性を決定するために、広範囲なベンチマーク研究を行う。
論文 参考訳(メタデータ) (2022-07-14T14:44:04Z) - Quantitative Stock Investment by Routing Uncertainty-Aware Trading
Experts: A Multi-Task Learning Approach [29.706515133374193]
既存のディープラーニング手法はランダムなシードやネットワークルータに敏感であることを示す。
本稿では,成功した取引会社の効果的なボトムアップトレーディング戦略設計ワークフローを模倣する,量的投資のための新しい2段階混成(MoE)フレームワークを提案する。
AlphaMixは4つの財務基準において、最先端のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2022-06-07T08:58:00Z) - Model-Based Offline Meta-Reinforcement Learning with Regularization [63.35040401948943]
オフラインのMeta-RLは、これらの課題に対処するための有望なアプローチとして現れています。
MerPOは、効率的なタスク構造推論と情報的メタ政治のためのメタモデルを学ぶ。
我々は,MerPOが行動政策とメタ政治の両方に対して,保証された改善を提供することを示す。
論文 参考訳(メタデータ) (2022-02-07T04:15:20Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Universal Trading for Order Execution with Oracle Policy Distillation [99.57416828489568]
本稿では,不完全な市場状態と注文実行のための最適な行動シーケンスとのギャップを埋める,新たなユニバーサル取引ポリシー最適化フレームワークを提案する。
本研究の枠組みは,完全情報を持つ託宣教師による実践的最適実行に向けて,共通政策の学習を指導する上で有効であることを示す。
論文 参考訳(メタデータ) (2021-01-28T05:52:18Z) - Time your hedge with Deep Reinforcement Learning [0.0]
深層強化学習(DRL)は、市場情報とヘッジ戦略の割り当て決定の間のダイナミックな依存関係を作成することで、この課題に対処することができる。
i)行動決定に追加の文脈情報を使用し、(ii)共通の資産運用者の1日のラグ転倒を考慮し、ヘッジの再均衡を図るための観察と行動の間に1期間の遅れがあり、(iii)アンカードウォークフォワードトレーニングと呼ばれる反復的な試験方法により、安定性とロバスト性の観点から完全にテストされており、(iv)時系列のkフォールドクロスバリデーションと同様に、ヘッジの活用を可能にする。
論文 参考訳(メタデータ) (2020-09-16T06:43:41Z) - Reinforcement-Learning based Portfolio Management with Augmented Asset
Movement Prediction States [71.54651874063865]
ポートフォリオマネジメント(PM)は、最大利益や最小リスクといった投資目標を達成することを目的としている。
本稿では,PMのための新しいステート拡張RLフレームワークであるSARLを提案する。
当社の枠組みは, 金融PMにおける2つのユニークな課題に対処することを目的としている。(1) データの異種データ -- 資産毎の収集情報は通常, 多様性, ノイズ, 不均衡(ニュース記事など), (2) 環境の不確実性 -- 金融市場は多様で非定常である。
論文 参考訳(メタデータ) (2020-02-09T08:10:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。