論文の概要: A simple learning agent interacting with an agent-based market model
- arxiv url: http://arxiv.org/abs/2208.10434v4
- Date: Sat, 11 Nov 2023 18:23:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 22:51:51.281459
- Title: A simple learning agent interacting with an agent-based market model
- Title(参考訳): エージェントベースの市場モデルと相互作用する単純な学習エージェント
- Authors: Matthew Dicks, Andrew Paskaramoorthy, Tim Gebbie
- Abstract要約: 本研究では,エージェントベースの金融市場モデルと相互作用する単一強化学習最適実行取引エージェントの学習力学を考察する。
モデルのモーメントは、ハースト指数を除いて学習エージェントの影響に対して堅牢であることがわかった。
学習エージェントの導入は、価格影響曲線の形状を保ちつつ、取引量が増えると、トレードオフ自己相関を低減することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the learning dynamics of a single reinforcement learning optimal
execution trading agent when it interacts with an event driven agent-based
financial market model. Trading takes place asynchronously through a matching
engine in event time. The optimal execution agent is considered at different
levels of initial order-sizes and differently sized state spaces. The resulting
impact on the agent-based model and market are considered using a calibration
approach that explores changes in the empirical stylised facts and price impact
curves. Convergence, volume trajectory and action trace plots are used to
visualise the learning dynamics. Here the smaller state space agents had the
number of states they visited converge much faster than the larger state space
agents, and they were able to start learning to trade intuitively using the
spread and volume states. We find that the moments of the model are robust to
the impact of the learning agents except for the Hurst exponent, which was
lowered by the introduction of strategic order-splitting. The introduction of
the learning agent preserves the shape of the price impact curves but can
reduce the trade-sign auto-correlations when their trading volumes increase.
- Abstract(参考訳): 本稿では,イベント駆動型金融市場モデルと相互作用する単一強化学習最適実行取引エージェントの学習ダイナミクスについて考察する。
トレーディングはイベント時にマッチングエンジンを介して非同期に行われる。
最適な実行エージェントは、初期オーダーサイズと異なるサイズの状態空間の異なるレベルで考慮される。
エージェントベースのモデルと市場への影響は、経験的スタイル化された事実と価格影響曲線の変化を探索するキャリブレーションアプローチを用いて考慮される。
収束、ボリューム軌道、アクショントレースプロットは学習ダイナミクスを視覚化するために使用される。
ここで、より小さな状態空間エージェントは、訪問した状態がより大きな状態空間エージェントよりもずっと早く収束し、スプレッド状態とボリューム状態を使って直感的に取引を学べるようになった。
モデルのモーメントは,戦略的な秩序分割の導入によって低下したHurst指数を除いて,学習エージェントの影響に対して堅牢であることがわかった。
学習エージェントの導入は、価格影響曲線の形状を保ちながら、取引量の増加に伴うトレードサイン自己相関を低減できる。
関連論文リスト
- MOT: A Mixture of Actors Reinforcement Learning Method by Optimal Transport for Algorithmic Trading [6.305870529904885]
マーケットの異なるパターンをモデル化するために,複数のアクターを非交叉表現学習で設計するMOTを提案する。
将来の市場データによる実験結果から,MOTはリスクのバランスを保ちながら優れた収益性を示すことが示された。
論文 参考訳(メタデータ) (2024-06-03T01:42:52Z) - Enhancing Interaction Modeling with Agent Selection and Physical Coefficient for Trajectory Prediction [1.6954753390775528]
本稿では,インタラクションエージェントを手動で選択し,アテンションスコアの代わりに相関関係を計算するASPILinを提案する。
興味深いことに、InterACTION、HighD、CitySimデータセットで実施された実験は、我々の手法が効率的かつ簡単であることを実証している。
論文 参考訳(メタデータ) (2024-05-21T18:45:18Z) - An Auction-based Marketplace for Model Trading in Federated Learning [54.79736037670377]
フェデレートラーニング(FL)は、局所的な分散データを用いたトレーニングモデルにおいて、その効果がますます認識されている。
FLはモデルのマーケットプレースであり、顧客は買い手と売り手の両方として振る舞う。
本稿では,性能向上に基づく適切な価格設定を実現するため,オークションベースのソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-02T07:25:53Z) - MERMAIDE: Learning to Align Learners using Model-Based Meta-Learning [62.065503126104126]
本研究では,先見のつかない学習エージェントの報酬を効率よく効果的に介入し,望ましい結果を導き出す方法について検討する。
これはオークションや課税のような現実世界の多くの設定に関係しており、プリンシパルは学習行動や実際の人々の報酬を知らないかもしれない。
モデルに基づくメタ学習フレームワークであるMERMAIDEを導入し,配布外エージェントに迅速に適応できるプリンシパルを訓練する。
論文 参考訳(メタデータ) (2023-04-10T15:44:50Z) - Many learning agents interacting with an agent-based market model [0.0]
反応型エージェントベースモデルと相互作用する最適な実行取引エージェントの学習のダイナミクスを考察する。
このモデルは、最適な実行学習エージェント、最小限の知的流動性テイカー、高速な電子流動性プロバイダによって表される3つの栄養レベルを持つ市場エコロジーを表している。
学習可能な最適な実行エージェントを組み込むことで、経験的データと同じ複雑さで動的に生成できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-03-13T18:15:52Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - Reinforcement Learning for Systematic FX Trading [0.0]
我々は、主要なキャッシュペアについて詳細な実験を行い、取引と資金調達のコストを正確に説明します。
こうした利益と損失の源泉は、通貨市場で発生した価格動向を含め、当社の継続的な強化学習者に提供されています。
取引コストが統計上最も高いのは、午後5時(日本時間午前5時)の取引終了時にモデルに取引を強制したにもかかわらず。
論文 参考訳(メタデータ) (2021-10-10T09:44:29Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - What can I do here? A Theory of Affordances in Reinforcement Learning [65.70524105802156]
我々はマルコフ決定過程の学習と計画を行うエージェントのための余裕の理論を開発する。
このケースでは、任意の状況で利用可能なアクションの数を減らすことで、アフォーダンスが二重の役割を担います。
本稿では,よりシンプルで一般化された遷移モデルを推定するために,余裕を学習し,それを利用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-26T16:34:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。