論文の概要: A Framework for Empowering Reinforcement Learning Agents with Causal Analysis: Enhancing Automated Cryptocurrency Trading
- arxiv url: http://arxiv.org/abs/2310.09462v2
- Date: Mon, 19 Aug 2024 01:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 20:51:22.413575
- Title: A Framework for Empowering Reinforcement Learning Agents with Causal Analysis: Enhancing Automated Cryptocurrency Trading
- Title(参考訳): 因果解析による強化学習エージェントの強化のためのフレームワーク:自動暗号取引の強化
- Authors: Rasoul Amirzadeh, Dhananjay Thiruvady, Asef Nazari, Mong Shan Ee,
- Abstract要約: 本研究は,Coin, Litecoin, Ripple, Tetherの5つの暗号通貨を取引する複雑さに対処するための強化学習(RL)フレームワークの開発に焦点をあてる。
本稿では,ベイズ的および動的ベイズ的ネットワーク技術を統合し,貿易決定におけるRLエージェントの強化を目的としたCausalReinforceNet(CRN)フレームワークを提案する。
本稿では,このフレームワークを用いて,Bell-and-HoldベンチマークとベースラインRLモデルと比較して,異なるRLアルゴリズムを用いて性能を解析する2つのエージェントを開発した。
- 参考スコア(独自算出の注目度): 1.4356611205757077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite advances in artificial intelligence-enhanced trading methods, developing a profitable automated trading system remains challenging in the rapidly evolving cryptocurrency market. This research focuses on developing a reinforcement learning (RL) framework to tackle the complexities of trading five prominent altcoins: Binance Coin, Ethereum, Litecoin, Ripple, and Tether. To this end, we present the CausalReinforceNet~(CRN) framework, which integrates both Bayesian and dynamic Bayesian network techniques to empower the RL agent in trade decision-making. We develop two agents using the framework based on distinct RL algorithms to analyse performance compared to the Buy-and-Hold benchmark strategy and a baseline RL model. The results indicate that our framework surpasses both models in profitability, highlighting CRN's consistent superiority, although the level of effectiveness varies across different cryptocurrencies.
- Abstract(参考訳): 人工知能による取引手法の進歩にもかかわらず、急速に発展する暗号通貨市場では、利益の出る自動取引システムの開発が困難なままである。
本研究は,Binance Coin, Ethereum, Litecoin, Ripple, Tetherの5大アルトコイン取引の複雑さに対処する強化学習(RL)フレームワークの開発に焦点をあてる。
この目的のために,ベイズ的および動的ベイズ的ネットワーク技術を統合し,貿易決定におけるRLエージェントの強化を目的としたCausalReinforceNet~(CRN)フレームワークを提案する。
本稿では,このフレームワークを用いて,Bell-and-HoldベンチマークとベースラインRLモデルと比較して,異なるRLアルゴリズムを用いて性能を解析する2つのエージェントを開発した。
以上の結果から,CRNの持つ一貫した優位性は,暗号通貨によって異なるものの,我々のフレームワークが利益率の両モデルを上回ることが示唆された。
関連論文リスト
- Reinforcement Learning Pair Trading: A Dynamic Scaling approach [3.4698840925433774]
暗号通貨の取引は、暗号市場固有のボラティリティのために困難である。
この作業では、強化学習(RL)とペアトレーディングを組み合わせています。
以上の結果から,RLは暗号通貨などの不安定な市場に適用した場合,手動および従来型のペア取引技術よりも大幅に優れることが示された。
論文 参考訳(メタデータ) (2024-07-23T00:16:27Z) - A Deep Reinforcement Learning Approach for Trading Optimization in the Forex Market with Multi-Agent Asynchronous Distribution [0.0]
この研究は、最先端の非同期アドバンテージ・アクター・クリティカル(A3C)アルゴリズムを用いたマルチエージェント(MA)RLフレームワークの適用を先導する。
ロックとロックなしの2つの異なるA3Cが提案され、単一通貨とマルチ通貨で訓練された。
以上の結果から,両モデルが近似政策最適化モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-05-30T12:07:08Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - Combining Transformer based Deep Reinforcement Learning with
Black-Litterman Model for Portfolio Optimization [0.0]
モデルフリーのアルゴリズムとして、深層強化学習(DRL)エージェントは、教師なしの方法で環境と対話することで学習し、決定する。
DRLエージェントとBlack-Litterman (BL)モデルを組み合わせたハイブリッドポートフォリオ最適化モデルを提案する。
我々のDRLエージェントは、様々な比較ポートフォリオ選択戦略と代替DRLフレームワークを、累積リターンで少なくとも42%上回っている。
論文 参考訳(メタデータ) (2024-02-23T16:01:37Z) - Modelling crypto markets by multi-agent reinforcement learning [0.0]
本研究では,暗号市場を模擬したマルチエージェント強化学習(MARL)モデルを提案する。
2018年から2022年にかけて継続的に取引された暗号通貨の1日当たり終値153ドルに調整されている。
論文 参考訳(メタデータ) (2024-02-16T16:28:58Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning in Online Reinforcement Learning [92.18524491615548]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Bitcoin Transaction Strategy Construction Based on Deep Reinforcement
Learning [8.431365407963629]
本研究では,PPO(Deep reinforcement Learning Algorithm-proximal Policy Optimization)に基づく,高速ビットコイン自動取引のためのフレームワークを提案する。
提案したフレームワークは、ボラティリティと急上昇の期間を通じて過剰なリターンを得ることができるため、ディープラーニングに基づく単一暗号通貨取引戦略を構築するための扉を開くことができる。
論文 参考訳(メタデータ) (2021-09-30T01:24:03Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。