論文の概要: Model-Free Reinforcement Learning for Asset Allocation
- arxiv url: http://arxiv.org/abs/2209.10458v1
- Date: Wed, 21 Sep 2022 16:00:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 17:28:59.251619
- Title: Model-Free Reinforcement Learning for Asset Allocation
- Title(参考訳): アセットアロケーションのためのモデルフリー強化学習
- Authors: Adebayo Oshingbesan, Eniola Ajiboye, Peruth Kamashazi, Timothy Mbaka
- Abstract要約: 本研究では, モデルフリー深部RLエージェントを用いたポートフォリオ管理における強化学習の性能について検討した。
実物価格で複数のRLエージェントを訓練し、アセットアロケーションの実施方法を学びました。
4つのRL剤(A2C, SAC, PPO, TRPO)は総じてMPTを上回った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Asset allocation (or portfolio management) is the task of determining how to
optimally allocate funds of a finite budget into a range of financial
instruments/assets such as stocks. This study investigated the performance of
reinforcement learning (RL) when applied to portfolio management using
model-free deep RL agents. We trained several RL agents on real-world stock
prices to learn how to perform asset allocation. We compared the performance of
these RL agents against some baseline agents. We also compared the RL agents
among themselves to understand which classes of agents performed better. From
our analysis, RL agents can perform the task of portfolio management since they
significantly outperformed two of the baseline agents (random allocation and
uniform allocation). Four RL agents (A2C, SAC, PPO, and TRPO) outperformed the
best baseline, MPT, overall. This shows the abilities of RL agents to uncover
more profitable trading strategies. Furthermore, there were no significant
performance differences between value-based and policy-based RL agents.
Actor-critic agents performed better than other types of agents. Also,
on-policy agents performed better than off-policy agents because they are
better at policy evaluation and sample efficiency is not a significant problem
in portfolio management. This study shows that RL agents can substantially
improve asset allocation since they outperform strong baselines. On-policy,
actor-critic RL agents showed the most promise based on our analysis.
- Abstract(参考訳): アセットアロケーション(またはポートフォリオマネジメント)は、有限予算の資金を株式などの金融商品や資産に最適に割り当てる方法を決定するタスクである。
本研究では, モデルフリー深部RLエージェントを用いたポートフォリオ管理における強化学習(RL)の性能について検討した。
実物価格で複数のRLエージェントを訓練し、アセットアロケーションの実施方法を学びました。
我々はこれらのRLエージェントの性能をベースラインエージェントと比較した。
また,RLエージェントをそれぞれ比較して,どのエージェントが優れているか理解した。
分析の結果,RLエージェントは2つのベースラインエージェント(ランダムアロケーションと均一アロケーション)を著しく上回り,ポートフォリオ管理のタスクを実行することができた。
4つのRL剤(A2C, SAC, PPO, TRPO)は, 総じてMPTよりも優れていた。
これはRLエージェントがより利益のある取引戦略を明らかにする能力を示している。
さらに, 価値ベースとポリシーベースのrlエージェント間には有意な性能差は認められなかった。
アクタクリティックエージェントは、他のタイプのエージェントよりもパフォーマンスが良かった。
また、オンポリシーエージェントは、政策評価が優れ、サンプル効率がポートフォリオ管理において大きな問題にならないため、オフポリシーエージェントよりもパフォーマンスが良かった。
本研究では,RLエージェントが強いベースラインを上回り,資産配分を大幅に改善できることを示す。
分析の結果, アクター・クリティカルなRLエージェントが最も有望であった。
関連論文リスト
- A novel multi-agent dynamic portfolio optimization learning system based on hierarchical deep reinforcement learning [4.495144308458951]
DRLエージェントをアクター批判アルゴリズムと深度関数近似器を用いて訓練すると,DRLエージェントのリスク調整による収益性の改善が重要でないシナリオが生じる可能性がある。
本研究では,新しい多エージェント深層強化学習(L)アルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-12T15:00:02Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - Combining Transformer based Deep Reinforcement Learning with
Black-Litterman Model for Portfolio Optimization [0.0]
モデルフリーのアルゴリズムとして、深層強化学習(DRL)エージェントは、教師なしの方法で環境と対話することで学習し、決定する。
DRLエージェントとBlack-Litterman (BL)モデルを組み合わせたハイブリッドポートフォリオ最適化モデルを提案する。
我々のDRLエージェントは、様々な比較ポートフォリオ選択戦略と代替DRLフレームワークを、累積リターンで少なくとも42%上回っている。
論文 参考訳(メタデータ) (2024-02-23T16:01:37Z) - Learning From Good Trajectories in Offline Multi-Agent Reinforcement
Learning [98.07495732562654]
オフラインマルチエージェント強化学習(MARL)は、事前コンパイルされたデータセットから効果的なマルチエージェントポリシーを学ぶことを目的としている。
オフラインのMARLが学んだエージェントは、しばしばこのランダムなポリシーを継承し、チーム全体のパフォーマンスを脅かす。
この問題に対処するために,共有個人軌道(SIT)と呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T18:11:26Z) - Imitate then Transcend: Multi-Agent Optimal Execution with Dual-Window
Denoise PPO [13.05016423016994]
再現性のある強化学習(RL)を用いた最適実行と配置問題の解法を提案する。
提案したフレームワークからトレーニングされたRLエージェントは、実行コストにおいて、業界ベンチマークのTWAP(Time-weighted average price)戦略を一貫して上回った。
論文 参考訳(メタデータ) (2022-06-21T21:25:30Z) - Plan Better Amid Conservatism: Offline Multi-Agent Reinforcement
Learning with Actor Rectification [74.10976684469435]
オフライン強化学習(RL)アルゴリズムは、直接マルチエージェント設定に転送することができる。
本稿では,この重要な課題に対処するために,Actor Rectification (OMAR) を用いたオフラインマルチエージェント RL を提案する。
OMARはマルチエージェント連続制御ベンチマークにおける最先端性能と強いベースラインを著しく上回る。
論文 参考訳(メタデータ) (2021-11-22T13:27:42Z) - Robust Reinforcement Learning on State Observations with Learned Optimal
Adversary [86.0846119254031]
逆摂動状態観測による強化学習の堅牢性について検討した。
固定されたエージェントポリシーでは、摂動状態の観測に最適な敵を見つけることができる。
DRLの設定では、これは以前のものよりもはるかに強い学習された敵対を介してRLエージェントに新しい経験的敵対攻撃につながります。
論文 参考訳(メタデータ) (2021-01-21T05:38:52Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z) - A General Framework on Enhancing Portfolio Management with Reinforcement
Learning [3.6985496077087743]
ポートフォリオマネジメントは、リスクプロファイルに対する望ましいリターンを満たすため、金融商品全体の資金と資産の継続的な再配置を懸念している。
深層強化学習(RL)はポートフォリオ管理への関心が高まり、RLエージェントは資産配分プロセスを最適化するために財務データに基づいて訓練されている。
本稿では,資産管理のための一般的なRLフレームワークを提案する。
論文 参考訳(メタデータ) (2019-11-26T23:41:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。