論文の概要: A Framework for Empowering Reinforcement Learning Agents with Causal
Analysis: Enhancing Automated Cryptocurrency Trading
- arxiv url: http://arxiv.org/abs/2310.09462v1
- Date: Sat, 14 Oct 2023 01:08:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 20:24:52.354856
- Title: A Framework for Empowering Reinforcement Learning Agents with Causal
Analysis: Enhancing Automated Cryptocurrency Trading
- Title(参考訳): 因果解析による強化学習エージェントの強化のためのフレームワーク:自動暗号取引の強化
- Authors: Rasoul Amirzadeh, Dhananjay Thiruvady, Asef Nazari, Mong Shan Ee
- Abstract要約: 本研究の目的は,5つの暗号通貨を対象とした強化学習に基づく自動取引システムを開発することである。
本稿では,意思決定支援システムとしてのフレームワークCausalReinforceNetを紹介する。
我々はCausalReinforceNetフレームワークを用いて,それぞれ異なる強化学習アルゴリズムに基づいて2つのエージェントを開発する。
- 参考スコア(独自算出の注目度): 1.5683566370372715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite advances in artificial intelligence-enhanced trading methods,
developing a profitable automated trading system remains challenging in the
rapidly evolving cryptocurrency market. This study aims to address these
challenges by developing a reinforcement learning-based automated trading
system for five popular altcoins~(cryptocurrencies other than Bitcoin): Binance
Coin, Ethereum, Litecoin, Ripple, and Tether. To this end, we present
CausalReinforceNet, a framework framed as a decision support system. Designed
as the foundational architecture of the trading system, the CausalReinforceNet
framework enhances the capabilities of the reinforcement learning agent through
causal analysis. Within this framework, we use Bayesian networks in the feature
engineering process to identify the most relevant features with causal
relationships that influence cryptocurrency price movements. Additionally, we
incorporate probabilistic price direction signals from dynamic Bayesian
networks to enhance our reinforcement learning agent's decision-making. Due to
the high volatility of the cryptocurrency market, we design our framework to
adopt a conservative approach that limits sell and buy position sizes to manage
risk. We develop two agents using the CausalReinforceNet framework, each based
on distinct reinforcement learning algorithms. The results indicate that our
framework substantially surpasses the Buy-and-Hold benchmark strategy in
profitability. Additionally, both agents generated notable returns on
investment for Binance Coin and Ethereum.
- Abstract(参考訳): 人工知能による取引手法の進歩にもかかわらず、急速に発展する暗号通貨市場では、利益の出る自動取引システムの開発が困難なままである。
本研究は,Binance Coin, Ethereum, Litecoin, Ripple, Tetherの5つの人気アルトコイン(ビットコイン以外の暗号通貨)を対象とした強化学習ベースの自動取引システムを開発することで,これらの課題に対処することを目的とする。
そこで我々は,意思決定支援システムとしてのフレームワークCausalReinforceNetを提案する。
取引システムの基盤アーキテクチャとして設計されたcausalreinforcenetフレームワークは、因果分析を通じて強化学習エージェントの能力を高める。
このフレームワークでは、機能エンジニアリングプロセスでベイズネットワークを使用して、暗号通貨の価格変動に影響を与える因果関係を持つ最も関連する特徴を特定します。
さらに,動的ベイズネットワークからの確率的価格方向シグナルを取り入れ,強化学習エージェントの意思決定を強化する。
暗号通貨市場の高ボラティリティのため、我々はリスク管理のために販売と購入を制限する保守的なアプローチを採用するための枠組みを設計します。
我々はCausalReinforceNetフレームワークを用いて,それぞれ異なる強化学習アルゴリズムに基づいて2つのエージェントを開発する。
その結果、当社のフレームワークは利益率における買い持ちベンチマーク戦略を大幅に上回っていることがわかった。
さらに、両エージェントはbinance coinとethereumの投資に対して顕著なリターンを生み出した。
関連論文リスト
- Reinforcement Learning Pair Trading: A Dynamic Scaling approach [3.4698840925433774]
暗号通貨の取引は、暗号市場固有のボラティリティのために困難である。
この作業では、強化学習(RL)とペアトレーディングを組み合わせています。
以上の結果から,RLは暗号通貨などの不安定な市場に適用した場合,手動および従来型のペア取引技術よりも大幅に優れることが示された。
論文 参考訳(メタデータ) (2024-07-23T00:16:27Z) - A Deep Reinforcement Learning Approach for Trading Optimization in the Forex Market with Multi-Agent Asynchronous Distribution [0.0]
この研究は、最先端の非同期アドバンテージ・アクター・クリティカル(A3C)アルゴリズムを用いたマルチエージェント(MA)RLフレームワークの適用を先導する。
ロックとロックなしの2つの異なるA3Cが提案され、単一通貨とマルチ通貨で訓練された。
以上の結果から,両モデルが近似政策最適化モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-05-30T12:07:08Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - Combining Transformer based Deep Reinforcement Learning with
Black-Litterman Model for Portfolio Optimization [0.0]
モデルフリーのアルゴリズムとして、深層強化学習(DRL)エージェントは、教師なしの方法で環境と対話することで学習し、決定する。
DRLエージェントとBlack-Litterman (BL)モデルを組み合わせたハイブリッドポートフォリオ最適化モデルを提案する。
我々のDRLエージェントは、様々な比較ポートフォリオ選択戦略と代替DRLフレームワークを、累積リターンで少なくとも42%上回っている。
論文 参考訳(メタデータ) (2024-02-23T16:01:37Z) - Modelling crypto markets by multi-agent reinforcement learning [0.0]
本研究では,暗号市場を模擬したマルチエージェント強化学習(MARL)モデルを提案する。
2018年から2022年にかけて継続的に取引された暗号通貨の1日当たり終値153ドルに調整されている。
論文 参考訳(メタデータ) (2024-02-16T16:28:58Z) - Cryptocurrency Portfolio Optimization by Neural Networks [81.20955733184398]
本稿では,これらの投資商品を活用するために,ニューラルネットワークに基づく効果的なアルゴリズムを提案する。
シャープ比を最大化するために、各アセットの割り当て重量を時間間隔で出力するディープニューラルネットワークを訓練する。
ネットワークの特定の資産に対するバイアスを規制する新たな損失項を提案し,最小分散戦略に近い割り当て戦略をネットワークに学習させる。
論文 参考訳(メタデータ) (2023-10-02T12:33:28Z) - Contrastive UCB: Provably Efficient Contrastive Self-Supervised Learning in Online Reinforcement Learning [92.18524491615548]
対照的な自己指導型学習は、(深層)強化学習(RL)の実践にうまく統合されている
我々は,低ランク遷移を伴うマルコフ決定過程(MDP)とマルコフゲーム(MG)のクラスにおいて,コントラスト学習によってRLをどのように強化できるかを検討する。
オンライン環境下では,MDPやMGのオンラインRLアルゴリズムと対照的な損失を生かした,新しい高信頼境界(UCB)型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-07-29T17:29:08Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Bitcoin Transaction Strategy Construction Based on Deep Reinforcement
Learning [8.431365407963629]
本研究では,PPO(Deep reinforcement Learning Algorithm-proximal Policy Optimization)に基づく,高速ビットコイン自動取引のためのフレームワークを提案する。
提案したフレームワークは、ボラティリティと急上昇の期間を通じて過剰なリターンを得ることができるため、ディープラーニングに基づく単一暗号通貨取引戦略を構築するための扉を開くことができる。
論文 参考訳(メタデータ) (2021-09-30T01:24:03Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Distributed Reinforcement Learning for Cooperative Multi-Robot Object
Manipulation [53.262360083572005]
強化学習(RL)を用いた協調型マルチロボットオブジェクト操作タスクの検討
分散近似RL(DA-RL)とゲーム理論RL(GT-RL)の2つの分散マルチエージェントRLアプローチを提案する。
本稿では, DA-RL と GT-RL を多エージェントシステムに適用し, 大規模システムへの拡張が期待される。
論文 参考訳(メタデータ) (2020-03-21T00:43:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。