論文の概要: ABIDES-Gym: Gym Environments for Multi-Agent Discrete Event Simulation
and Application to Financial Markets
- arxiv url: http://arxiv.org/abs/2110.14771v1
- Date: Wed, 27 Oct 2021 21:05:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 16:00:29.020034
- Title: ABIDES-Gym: Gym Environments for Multi-Agent Discrete Event Simulation
and Application to Financial Markets
- Title(参考訳): ABIDES-Gym:マルチエージェント離散イベントシミュレーションのためのガイム環境と金融市場への応用
- Authors: Selim Amrouni, Aymeric Moulin, Jared Vann, Svitlana Vyetrenko, Tucker
Balch and Manuela Veloso
- Abstract要約: 離散イベント時間に基づく離散イベントマルチエージェントシミュレーション(DEMAS)におけるOpenAI Gymフレームワークの利用を提案する。
本研究は、ABIDES、ABIDES-Marketsの市場拡張を具体的に利用し、日々の投資家および実行エージェントを訓練するための2つのベンチマーク金融市場OpenAI Gym環境を開発する。
- 参考スコア(独自算出の注目度): 9.912519258188434
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model-free Reinforcement Learning (RL) requires the ability to sample
trajectories by taking actions in the original problem environment or a
simulated version of it. Breakthroughs in the field of RL have been largely
facilitated by the development of dedicated open source simulators with easy to
use frameworks such as OpenAI Gym and its Atari environments. In this paper we
propose to use the OpenAI Gym framework on discrete event time based Discrete
Event Multi-Agent Simulation (DEMAS). We introduce a general technique to wrap
a DEMAS simulator into the Gym framework. We expose the technique in detail and
implement it using the simulator ABIDES as a base. We apply this work by
specifically using the markets extension of ABIDES, ABIDES-Markets, and develop
two benchmark financial markets OpenAI Gym environments for training daily
investor and execution agents. As a result, these two environments describe
classic financial problems with a complex interactive market behavior response
to the experimental agent's action.
- Abstract(参考訳): モデルフリー強化学習(RL)は、元の問題環境やそのシミュレーションバージョンで行動をとることで軌道をサンプリングする能力を必要とする。
RLの分野におけるブレークスルーは、OpenAI GymやAtari環境など、簡単に使えるフレームワークを備えた専用のオープンソースシミュレータの開発によって、大きく促進されている。
本稿では,離散イベント時間に基づく離散イベントマルチエージェントシミュレーション(DEMAS)におけるOpenAI Gymフレームワークの利用を提案する。
本稿では,DEMASシミュレータをGymフレームワークにラップする一般的な手法を紹介する。
我々は,この手法を詳細に公開し,シミュレータをベースとして実装する。
本研究は、ABIDES、ABIDES-Marketsの市場拡張を具体的に利用し、日々の投資家および実行エージェントを訓練するための2つのベンチマーク金融市場OpenAI Gym環境を開発する。
その結果、これらの2つの環境は、実験エージェントの行動に対する複雑な市場行動応答を伴う古典的な金融問題を記述する。
関連論文リスト
- JaxMARL: Multi-Agent RL Environments in JAX [107.7560737385902]
我々は、使いやすさとGPU有効性を組み合わせた最初のオープンソースコードベースであるJaxMARLを紹介します。
私たちの実験によると、JAXベースのトレーニングパイプラインの実行は、既存のアプローチよりも最大で12500倍高速です。
また、人気のあるStarCraft Multi-Agent Challengeのベクトル化、単純化されたバージョンであるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - Octopus: Embodied Vision-Language Programmer from Environmental Feedback [59.772904419928054]
大規模視覚言語モデル (VLM) はマルチモーダル認識と推論において大きな進歩を遂げた。
本稿では,エージェントの視覚とテキストタスクの目的を正確に解読する新しいVLMであるOctopusを紹介する。
我々の設計では、シミュレーターの日常的な雑用から複雑なビデオゲームの高度なインタラクションまで、エージェントは幅広いタスクを十分に扱えるようにしている。
論文 参考訳(メタデータ) (2023-10-12T17:59:58Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - NASimEmu: Network Attack Simulator & Emulator for Training Agents
Generalizing to Novel Scenarios [0.0]
NASimEmuは、浸透試験エージェントをトレーニングするための新しいフレームワークである。
シミュレータとエミュレータに共有インターフェースを提供する。
フレームワークを使って、新しい、構造的に異なるシナリオに移行する一般的なエージェントをトレーニングする方法を示す。
論文 参考訳(メタデータ) (2023-05-26T20:19:09Z) - Gym-preCICE: Reinforcement Learning Environments for Active Flow Control [0.0]
Gym-preCICEはPythonのアダプタで、Gymnasium (以前はOpenAI Gymとして知られていた) APIに完全に準拠している。
Gym-preCICEは、分割多重物理シミュレーションのためのオープンソースの結合ライブラリであるPreCICEを利用する。
このフレームワークは、リアルな物理ベースのシミュレーションツールボックスとRLアルゴリズムをシームレスに統合する。
論文 参考訳(メタデータ) (2023-05-03T10:54:56Z) - OpenAGI: When LLM Meets Domain Experts [51.86179657467822]
ヒューマン・インテリジェンス(HI)は、複雑なタスクを解くための基本的なスキルの組み合わせに長けている。
この機能は人工知能(AI)にとって不可欠であり、包括的なAIエージェントに組み込まれるべきである。
マルチステップで現実的なタスクを解決するために設計されたオープンソースのプラットフォームであるOpenAGIを紹介します。
論文 参考訳(メタデータ) (2023-04-10T03:55:35Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - Towards Realistic Market Simulations: a Generative Adversarial Networks
Approach [2.381990157809543]
本研究では,実データに基づいて学習したコンディショナル・ジェネレーティブ・アドバイザリアル・ネットワーク(CGAN)に基づくマーケットジェネレータを提案する。
CGANベースの"ワールド"エージェントは、実験エージェントに応答して意味のある順序を生成することができる。
論文 参考訳(メタデータ) (2021-10-25T22:01:07Z) - Scenic4RL: Programmatic Modeling and Generation of Reinforcement
Learning Environments [89.04823188871906]
リアルタイム戦略(RTS)環境では,多様な現実シナリオの生成が難しい。
既存のシミュレータのほとんどは環境をランダムに生成することに頼っている。
我々は、研究者を支援するために、既存の形式シナリオ仕様言語であるSCENICを採用する利点を紹介する。
論文 参考訳(メタデータ) (2021-06-18T21:49:46Z) - BBE: Simulating the Microstructural Dynamics of an In-Play Betting
Exchange via Agent-Based Modelling [0.0]
Bristol Betting Exchange(BBE)は、現代的なオンラインスポーツ賭け交換の無料のオープンソースエージェントベースのシミュレーションモデルです。
BBEは、賭け交換で生じる問題に対するAIおよび機械学習(ML)技術の応用を研究する研究者のための共通のプラットフォーム、データソースおよび実験的テストベッドとして意図されています。
BBEは、スポーツイベントに賭けるための利益戦略の自動発見や改善のための大規模な高解像度データセットの生成を可能にする概念実証システムとして提供される。
論文 参考訳(メタデータ) (2021-05-18T06:52:08Z) - Sim-Env: Decoupling OpenAI Gym Environments from Simulation Models [0.0]
強化学習(RL)は、AI研究の最も活発な分野の1つです。
開発方法論はまだ遅れており、RLアプリケーションの開発を促進するための標準APIが不足している。
多目的エージェントベースのモデルと派生した単一目的強化学習環境の分離開発と保守のためのワークフローとツールを提示する。
論文 参考訳(メタデータ) (2021-02-19T09:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。