論文の概要: Meta-Learning Reinforcement Learning for Crypto-Return Prediction
- arxiv url: http://arxiv.org/abs/2509.09751v1
- Date: Thu, 11 Sep 2025 14:20:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.880888
- Title: Meta-Learning Reinforcement Learning for Crypto-Return Prediction
- Title(参考訳): 復号予測のためのメタラーニング強化学習
- Authors: Junqiao Wang, Zhaoyang Guan, Guanyu Liu, Tianze Xia, Xianzhi Li, Shuo Yin, Xinyuan Song, Chuhan Cheng, Tianyu Shi, Alex Lee,
- Abstract要約: 本稿ではメタラーニングと強化学習を統一したトランスフォーマーベースアーキテクチャであるMeta-RL-Cryptoを提案する。
エージェントはクローズドループアーキテクチャにおいて、3つのロールアクタ、ジャッジ、メタジャッジを反復的に交互に切り替える。
様々な市場体制における実験により、Meta-RL-Cryptoは実市場の技術的指標に優れた性能を示すことが示された。
- 参考スコア(独自算出の注目度): 16.344249366257003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting cryptocurrency returns is notoriously difficult: price movements are driven by a fast-shifting blend of on-chain activity, news flow, and social sentiment, while labeled training data are scarce and expensive. In this paper, we present Meta-RL-Crypto, a unified transformer-based architecture that unifies meta-learning and reinforcement learning (RL) to create a fully self-improving trading agent. Starting from a vanilla instruction-tuned LLM, the agent iteratively alternates between three roles-actor, judge, and meta-judge-in a closed-loop architecture. This learning process requires no additional human supervision. It can leverage multimodal market inputs and internal preference feedback. The agent in the system continuously refines both the trading policy and evaluation criteria. Experiments across diverse market regimes demonstrate that Meta-RL-Crypto shows good performance on the technical indicators of the real market and outperforming other LLM-based baselines.
- Abstract(参考訳): 価格変動は、オンチェーン活動、ニュースフロー、ソーシャル感情の急激な混合によって引き起こされるが、ラベル付きトレーニングデータは少なくて高価だ。
本稿では,メタラーニングと強化学習(RL)を統合し,完全自己改善型トレーディングエージェントを作成する,統一型トランスフォーマーベースアーキテクチャであるMeta-RL-Cryptoを提案する。
バニラ命令チューニング LLM から始まり、エージェントはクローズドループアーキテクチャにおける3つのロールアクタ、ジャッジ、メタジャッジを反復的に交互に交互に切り替える。
この学習プロセスには、追加の人的監督は必要ありません。
マルチモーダル市場インプットと内部選好フィードバックを利用することができる。
システム内のエージェントは、取引方針と評価基準の両方を継続的に洗練する。
様々な市場体制における実験により、Meta-RL-Cryptoは実市場の技術的指標に優れた性能を示し、他のLLMベースラインを上回る性能を示した。
関連論文リスト
- RAGEN: Understanding Self-Evolution in LLM Agents via Multi-Turn Reinforcement Learning [125.96848846966087]
対話型エージェントとしての大規模言語モデル(LLM)のトレーニングには,ユニークな課題がある。
強化学習は静的タスクの進行を可能にする一方で、マルチターンエージェントRLトレーニングは未探索のままである。
本稿では、軌道レベルのエージェントRLのための一般的なフレームワークであるStarPOを提案し、LLMエージェントのトレーニングと評価のためのモジュールシステムであるRAGENを紹介する。
論文 参考訳(メタデータ) (2025-04-24T17:57:08Z) - Agent Trading Arena: A Study on Numerical Understanding in LLM-Based Agents [69.58565132975504]
大規模言語モデル(LLM)は、自然言語処理において顕著な能力を示した。
LLMをベースとしたエージェントが競合するマルチエージェント取引を行う仮想ゼロサム株式市場であるエージェントトレーディングアリーナを提示する。
論文 参考訳(メタデータ) (2025-02-25T08:41:01Z) - Reinforcement Learning Pair Trading: A Dynamic Scaling approach [3.4698840925433774]
暗号市場固有のボラティリティのため、暗号通貨の取引は困難である。
本研究では,暗号アルゴリズムによる取引において,強化学習が意思決定を促進できるかどうかを検討する。
論文 参考訳(メタデータ) (2024-07-23T00:16:27Z) - When AI Meets Finance (StockAgent): Large Language Model-based Stock Trading in Simulated Real-world Environments [55.19252983108372]
LLMによって駆動される、StockAgentと呼ばれるマルチエージェントAIシステムを開発した。
StockAgentを使えば、ユーザーはさまざまな外部要因が投資家取引に与える影響を評価することができる。
AIエージェントに基づく既存のトレーディングシミュレーションシステムに存在するテストセットのリーク問題を回避する。
論文 参考訳(メタデータ) (2024-07-15T06:49:30Z) - A Framework for Empowering Reinforcement Learning Agents with Causal Analysis: Enhancing Automated Cryptocurrency Trading [1.4356611205757077]
本研究は,Coin, Litecoin, Ripple, Tetherの5つの暗号通貨を取引する複雑さに対処するための強化学習(RL)フレームワークの開発に焦点をあてる。
本稿では,ベイズ的および動的ベイズ的ネットワーク技術を統合し,貿易決定におけるRLエージェントの強化を目的としたCausalReinforceNet(CRN)フレームワークを提案する。
本稿では,このフレームワークを用いて,Bell-and-HoldベンチマークとベースラインRLモデルと比較して,異なるRLアルゴリズムを用いて性能を解析する2つのエージェントを開発した。
論文 参考訳(メタデータ) (2023-10-14T01:08:52Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Bitcoin Transaction Strategy Construction Based on Deep Reinforcement
Learning [8.431365407963629]
本研究では,PPO(Deep reinforcement Learning Algorithm-proximal Policy Optimization)に基づく,高速ビットコイン自動取引のためのフレームワークを提案する。
提案したフレームワークは、ボラティリティと急上昇の期間を通じて過剰なリターンを得ることができるため、ディープラーニングに基づく単一暗号通貨取引戦略を構築するための扉を開くことができる。
論文 参考訳(メタデータ) (2021-09-30T01:24:03Z) - Deep Reinforcement Learning in Quantitative Algorithmic Trading: A
Review [0.0]
深層強化学習エージェントはChessやGoといった多くのゲームで想定される力であることが証明された。
本稿では、ファイナンスにおけるAIのサブドメインにおける深層強化学習の進歩を概観する。
我々は、株取引におけるDRLは、強い前提の下でプロのトレーダーと競合する可能性が大きいと結論付けている。
論文 参考訳(メタデータ) (2021-05-31T22:26:43Z) - FinRL: A Deep Reinforcement Learning Library for Automated Stock Trading
in Quantitative Finance [20.43261517036651]
DRLライブラリFinRLを導入し、初心者が定量的ファイナンスに自分自身を公開できるようにする。
FinRLはNASDAQ-100、DJIA、S&P 500、HSI、SSE 50、CSI 300など、さまざまな株式市場のトレーディング環境をシミュレートしている。
取引コスト、市場の流動性、投資家のリスク回避の度合いといった重要なトレーディングの制約が組み込まれている。
論文 参考訳(メタデータ) (2020-11-19T01:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。