論文の概要: ABIDES-Gym: Gym Environments for Multi-Agent Discrete Event Simulation
and Application to Financial Markets
- arxiv url: http://arxiv.org/abs/2110.14771v1
- Date: Wed, 27 Oct 2021 21:05:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 16:00:29.020034
- Title: ABIDES-Gym: Gym Environments for Multi-Agent Discrete Event Simulation
and Application to Financial Markets
- Title(参考訳): ABIDES-Gym:マルチエージェント離散イベントシミュレーションのためのガイム環境と金融市場への応用
- Authors: Selim Amrouni, Aymeric Moulin, Jared Vann, Svitlana Vyetrenko, Tucker
Balch and Manuela Veloso
- Abstract要約: 離散イベント時間に基づく離散イベントマルチエージェントシミュレーション(DEMAS)におけるOpenAI Gymフレームワークの利用を提案する。
本研究は、ABIDES、ABIDES-Marketsの市場拡張を具体的に利用し、日々の投資家および実行エージェントを訓練するための2つのベンチマーク金融市場OpenAI Gym環境を開発する。
- 参考スコア(独自算出の注目度): 9.912519258188434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model-free Reinforcement Learning (RL) requires the ability to sample
trajectories by taking actions in the original problem environment or a
simulated version of it. Breakthroughs in the field of RL have been largely
facilitated by the development of dedicated open source simulators with easy to
use frameworks such as OpenAI Gym and its Atari environments. In this paper we
propose to use the OpenAI Gym framework on discrete event time based Discrete
Event Multi-Agent Simulation (DEMAS). We introduce a general technique to wrap
a DEMAS simulator into the Gym framework. We expose the technique in detail and
implement it using the simulator ABIDES as a base. We apply this work by
specifically using the markets extension of ABIDES, ABIDES-Markets, and develop
two benchmark financial markets OpenAI Gym environments for training daily
investor and execution agents. As a result, these two environments describe
classic financial problems with a complex interactive market behavior response
to the experimental agent's action.
- Abstract(参考訳): モデルフリー強化学習(RL)は、元の問題環境やそのシミュレーションバージョンで行動をとることで軌道をサンプリングする能力を必要とする。
RLの分野におけるブレークスルーは、OpenAI GymやAtari環境など、簡単に使えるフレームワークを備えた専用のオープンソースシミュレータの開発によって、大きく促進されている。
本稿では,離散イベント時間に基づく離散イベントマルチエージェントシミュレーション(DEMAS)におけるOpenAI Gymフレームワークの利用を提案する。
本稿では,DEMASシミュレータをGymフレームワークにラップする一般的な手法を紹介する。
我々は,この手法を詳細に公開し,シミュレータをベースとして実装する。
本研究は、ABIDES、ABIDES-Marketsの市場拡張を具体的に利用し、日々の投資家および実行エージェントを訓練するための2つのベンチマーク金融市場OpenAI Gym環境を開発する。
その結果、これらの2つの環境は、実験エージェントの行動に対する複雑な市場行動応答を伴う古典的な金融問題を記述する。
関連論文リスト
- CompeteAI: Understanding the Competition Dynamics in Large Language Model-based Agents [43.46476421809271]
大規模言語モデル(LLM)は、様々なタスクを完了させるエージェントとして広く使われている。
本稿ではエージェント間の競合を研究するための一般的な枠組みを提案する。
そして、GPT-4を用いて仮想街をシミュレートする現実的な競争環境を構築する。
論文 参考訳(メタデータ) (2023-10-26T16:06:20Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - NASimEmu: Network Attack Simulator & Emulator for Training Agents
Generalizing to Novel Scenarios [0.0]
NASimEmuは、浸透試験エージェントをトレーニングするための新しいフレームワークである。
シミュレータとエミュレータに共有インターフェースを提供する。
フレームワークを使って、新しい、構造的に異なるシナリオに移行する一般的なエージェントをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2023-05-26T20:19:09Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - Towards Realistic Market Simulations: a Generative Adversarial Networks
Approach [2.381990157809543]
本研究では,実データに基づいて学習したコンディショナル・ジェネレーティブ・アドバイザリアル・ネットワーク(CGAN)に基づくマーケットジェネレータを提案する。
CGANベースの"ワールド"エージェントは、実験エージェントに応答して意味のある順序を生成することができる。
論文 参考訳(メタデータ) (2021-10-25T22:01:07Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z) - BBE: Simulating the Microstructural Dynamics of an In-Play Betting
Exchange via Agent-Based Modelling [0.0]
Bristol Betting Exchange(BBE)は、現代的なオンラインスポーツ賭け交換の無料のオープンソースエージェントベースのシミュレーションモデルです。
BBEは、賭け交換で生じる問題に対するAIおよび機械学習(ML)技術の応用を研究する研究者のための共通のプラットフォーム、データソースおよび実験的テストベッドとして意図されています。
BBEは、スポーツイベントに賭けるための利益戦略の自動発見や改善のための大規模な高解像度データセットの生成を可能にする概念実証システムとして提供される。
論文 参考訳(メタデータ) (2021-05-18T06:52:08Z) - Sim-Env: Decoupling OpenAI Gym Environments from Simulation Models [0.0]
強化学習(RL)は、AI研究の最も活発な分野の1つです。
開発方法論はまだ遅れており、RLアプリケーションの開発を促進するための標準APIが不足している。
多目的エージェントベースのモデルと派生した単一目的強化学習環境の分離開発と保守のためのワークフローとツールを提示する。
論文 参考訳(メタデータ) (2021-02-19T09:25:21Z) - SMARTS: Scalable Multi-Agent Reinforcement Learning Training School for
Autonomous Driving [96.50297622371457]
マルチエージェントインタラクションは、現実の世界における自律運転の基本的な側面である。
研究と開発が10年以上続いたにもかかわらず、様々なシナリオで多様な道路ユーザーと対話する方法の問題は未解決のままである。
SMARTSと呼ばれる,多種多様な運転インタラクションを生成する専用シミュレーションプラットフォームを開発した。
論文 参考訳(メタデータ) (2020-10-19T18:26:10Z) - Forgetful Experience Replay in Hierarchical Reinforcement Learning from
Demonstrations [55.41644538483948]
本稿では,複雑な視覚環境において,エージェントが低品質な実演を行えるようにするためのアプローチの組み合わせを提案する。
提案した目標指向のリプレイバッファ構築により,エージェントはデモにおいて複雑な階層的タスクを解くためのサブゴールを自動的に強調することができる。
私たちのアルゴリズムに基づくこのソリューションは、有名なMineRLコンペティションのすべてのソリューションを破り、エージェントがMinecraft環境でダイヤモンドをマイニングすることを可能にする。
論文 参考訳(メタデータ) (2020-06-17T15:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。