論文の概要: Reinforcement Learning in Agent-Based Market Simulation: Unveiling Realistic Stylized Facts and Behavior
- arxiv url: http://arxiv.org/abs/2403.19781v1
- Date: Thu, 28 Mar 2024 19:06:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 17:23:49.396159
- Title: Reinforcement Learning in Agent-Based Market Simulation: Unveiling Realistic Stylized Facts and Behavior
- Title(参考訳): エージェント・ベース・マーケット・シミュレーションにおける強化学習:現実的なスティル化と行動の解明
- Authors: Zhiyuan Yao, Zheng Li, Matthew Thomas, Ionut Florescu,
- Abstract要約: 投資家や規制当局は、現実の市場における意思決定の結果を予測できる現実的な市場シミュレーターの恩恵を受けることができる。
伝統的なルールベースの市場シミュレータは、しばしば市場の参加者のダイナミックな振る舞いを正確に把握するのに不足する。
本研究では,強化学習(RL)エージェントを用いたエージェントベースシミュレーションフレームワークについて検討する。
- 参考スコア(独自算出の注目度): 7.8082951131908604
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Investors and regulators can greatly benefit from a realistic market simulator that enables them to anticipate the consequences of their decisions in real markets. However, traditional rule-based market simulators often fall short in accurately capturing the dynamic behavior of market participants, particularly in response to external market impact events or changes in the behavior of other participants. In this study, we explore an agent-based simulation framework employing reinforcement learning (RL) agents. We present the implementation details of these RL agents and demonstrate that the simulated market exhibits realistic stylized facts observed in real-world markets. Furthermore, we investigate the behavior of RL agents when confronted with external market impacts, such as a flash crash. Our findings shed light on the effectiveness and adaptability of RL-based agents within the simulation, offering insights into their response to significant market events.
- Abstract(参考訳): 投資家や規制当局は、現実的な市場シミュレーターから大きな恩恵を受けることができる。
しかし、伝統的なルールベースの市場シミュレーターは、市場参加者のダイナミックな振る舞い、特に外部の市場への影響イベントや他の参加者の行動の変化を正確に把握するのに不足することが多い。
本研究では,強化学習(RL)エージェントを用いたエージェントベースシミュレーションフレームワークについて検討する。
本稿では、これらのRLエージェントの実装の詳細を述べるとともに、実世界の市場において、シミュレートされた市場は現実的なスタイル化された事実を示すことを示す。
さらに,フラッシュクラッシュなどの外部市場の影響に直面する場合のRLエージェントの挙動について検討した。
本研究は,RLをベースとしたエージェントの有効性と適応性に光を当て,市場における重要なイベントに対する反応について考察した。
関連論文リスト
- Unveiling the Truth and Facilitating Change: Towards Agent-based
Large-scale Social Movement Simulation [48.84837269991905]
ソーシャルメディアは社会運動の基盤として現れ、社会変革の推進に大きな影響を与えている。
ソーシャルメディアユーザシミュレーションのためのハイブリッドフレームワークを導入し、ユーザを2つのタイプに分類する。
我々は、トリガーイベントに続く応答ダイナミクスを再現するために、Twitterのような環境を構築します。
論文 参考訳(メタデータ) (2024-02-26T06:28:54Z) - An Auction-based Marketplace for Model Trading in Federated Learning [54.79736037670377]
フェデレートラーニング(FL)は、局所的な分散データを用いたトレーニングモデルにおいて、その効果がますます認識されている。
FLはモデルのマーケットプレースであり、顧客は買い手と売り手の両方として振る舞う。
本稿では,性能向上に基づく適切な価格設定を実現するため,オークションベースのソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-02T07:25:53Z) - How Far Are We from Believable AI Agents? A Framework for Evaluating the
Believability of Human Behavior Simulation [49.1914375451351]
我々は,AIエージェントの信頼性を評価するための2つの指標,一貫性と堅牢性,およびベンチマークであるSimulateBenchを紹介する。
エージェント (i) が長文入力を提示した場合の文字情報の正確な描写に苦慮していること, (ii) プロファイルの摂動に対する脆弱性を示すこと, (iii) 全体としての信頼性に影響を及ぼす重要な要因に大きく影響していること,などが判明した。
論文 参考訳(メタデータ) (2023-12-28T16:51:11Z) - Harnessing Deep Q-Learning for Enhanced Statistical Arbitrage in
High-Frequency Trading: A Comprehensive Exploration [0.0]
強化学習(Reinforcement Learning、RL)は、エージェントが環境と対話することで学習する機械学習の分野である。
本稿では,HFT(High-Frequency Trading)シナリオに適した統計仲裁手法におけるRLの統合について述べる。
広範なシミュレーションやバックテストを通じて、RLはトレーディング戦略の適応性を高めるだけでなく、収益性指標の改善やリスク調整されたリターンの期待も示している。
論文 参考訳(メタデータ) (2023-09-13T06:15:40Z) - Learning to simulate realistic limit order book markets from data as a
World Agent [1.1470070927586016]
マルチエージェント市場シミュレータは通常、実際の市場をエミュレートするために慎重なキャリブレーションを必要とする。
キャリブレーションの少ないシミュレータは、誤解を招く結果につながる可能性がある。
本稿では,限定注文書市場を正確にエミュレートする世界モデルシミュレータを提案する。
論文 参考訳(メタデータ) (2022-09-26T09:17:11Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - Multi-Asset Spot and Option Market Simulation [52.77024349608834]
正規化フローに基づく1つの基盤となる1つのマーケットシミュレータを現実的に構築する。
本研究では, 正規化流れの条件付き可逆性を活用し, 独立シミュレータの連立分布をキャリブレーションするスケーラブルな手法を提案する。
論文 参考訳(メタデータ) (2021-12-13T17:34:28Z) - Deep Q-Learning Market Makers in a Multi-Agent Simulated Stock Market [58.720142291102135]
本稿では,エージェント・ベースの観点から,これらのマーケット・メーカーの戦略に関する研究に焦点をあてる。
模擬株式市場における知的市場マーカー作成のための強化学習(Reinforcement Learning, RL)の適用を提案する。
論文 参考訳(メタデータ) (2021-12-08T14:55:21Z) - Towards Realistic Market Simulations: a Generative Adversarial Networks
Approach [2.381990157809543]
本研究では,実データに基づいて学習したコンディショナル・ジェネレーティブ・アドバイザリアル・ネットワーク(CGAN)に基づくマーケットジェネレータを提案する。
CGANベースの"ワールド"エージェントは、実験エージェントに応答して意味のある順序を生成することができる。
論文 参考訳(メタデータ) (2021-10-25T22:01:07Z) - Robust Market Making via Adversarial Reinforcement Learning [5.482532589225552]
敵の強化学習は、敵対的かつ適応的な市場条件に頑健な市場マーキングエージェントを作成するのに有効であることを示す。
我々はARL法が一貫して収束していることを示し、単純化された単一ステージゲームにおいて、収束するプロファイルがナッシュ平衡に対応することをいくつかの特別なケースで証明する。
論文 参考訳(メタデータ) (2020-03-03T22:40:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。