論文の概要: INTAGS: Interactive Agent-Guided Simulation
- arxiv url: http://arxiv.org/abs/2309.01784v3
- Date: Fri, 17 Nov 2023 20:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 18:09:40.211979
- Title: INTAGS: Interactive Agent-Guided Simulation
- Title(参考訳): INTAGS:インタラクティブエージェントガイドシミュレーション
- Authors: Song Wei, Andrea Coletta, Svitlana Vyetrenko, Tucker Balch
- Abstract要約: マルチエージェントシステム(MAS)を含む多くのアプリケーションでは、実稼働に先立って、実験的な(Exp)自律エージェントを高忠実度シミュレータでテストすることが必須である。
本稿では,ExpエージェントとBGエージェントのライブインタラクションによって評価される実システムと合成マルチエージェントシステムとを区別する指標を提案する。
InTAGSを用いてシミュレータのキャリブレーションを行い、現状のWasserstein Generative Adversarial Networkアプローチと比較して、より現実的な市場データを生成することができることを示す。
- 参考スコア(独自算出の注目度): 4.04638613278729
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In many applications involving multi-agent system (MAS), it is imperative to
test an experimental (Exp) autonomous agent in a high-fidelity simulator prior
to its deployment to production, to avoid unexpected losses in the real-world.
Such a simulator acts as the environmental background (BG) agent(s), called
agent-based simulator (ABS), aiming to replicate the complex real MAS. However,
developing realistic ABS remains challenging, mainly due to the sequential and
dynamic nature of such systems. To fill this gap, we propose a metric to
distinguish between real and synthetic multi-agent systems, which is evaluated
through the live interaction between the Exp and BG agents to explicitly
account for the systems' sequential nature. Specifically, we characterize the
system/environment by studying the effect of a sequence of BG agents' responses
to the environment state evolution and take such effects' differences as MAS
distance metric; The effect estimation is cast as a causal inference problem
since the environment evolution is confounded with the previous environment
state. Importantly, we propose the Interactive Agent-Guided Simulation (INTAGS)
framework to build a realistic ABS by optimizing over this novel metric. To
adapt to any environment with interactive sequential decision making agents,
INTAGS formulates the simulator as a stochastic policy in reinforcement
learning. Moreover, INTAGS utilizes the policy gradient update to bypass
differentiating the proposed metric such that it can support non-differentiable
operations of multi-agent environments. Through extensive experiments, we
demonstrate the effectiveness of INTAGS on an equity stock market simulation
example. We show that using INTAGS to calibrate the simulator can generate more
realistic market data compared to the state-of-the-art conditional Wasserstein
Generative Adversarial Network approach.
- Abstract(参考訳): マルチエージェントシステム(mas)を含む多くのアプリケーションでは、実世界の予期せぬ損失を避けるために、実運用への展開前に高忠実度シミュレータで実験的な(exp)自律エージェントをテストすることが不可欠である。
このようなシミュレータは、エージェントベースシミュレータ(abs)と呼ばれる環境背景(bg)エージェントとして働き、複雑な実masを再現することを目指している。
しかし、現実的なABSの開発は、主にそのようなシステムのシーケンシャルでダイナミックな性質のため、依然として困難である。
本研究では,このギャップを埋めるために,expエージェントとbgエージェント間のライブインタラクションを通じて評価し,システムのシーケンシャルな性質を明示的に考慮した,実システムと合成マルチエージェントシステムを区別するメトリクスを提案する。
具体的には,環境状態変化に対するbgエージェントの応答列の効果を解析し,mas距離メトリックとしてその効果の差異を考慮し,環境進化と先行する環境状態とを結合した因果推論問題として効果推定をキャストする。
本稿では,対話型エージェント誘導シミュレーション(INTAGS)フレームワークを提案する。
対話型逐次意思決定エージェントで任意の環境に適応するために、INTAGSは、強化学習における確率的ポリシーとしてシミュレータを定式化する。
さらに、INTAGSはポリシー勾配更新を利用して、提案したメトリックの差別化を回避し、マルチエージェント環境の非微分可能な操作をサポートできるようにしている。
広範な実験を通じて、株式市場シミュレーションの例において、INTAGSの有効性を実証する。
InTAGSを用いてシミュレータのキャリブレーションを行い、現状のWasserstein Generative Adversarial Networkアプローチと比較して、より現実的な市場データを生成することを示す。
関連論文リスト
- Enabling Adaptive Agent Training in Open-Ended Simulators by Targeting Diversity [10.402855891273346]
DIVAは複雑なオープンエンドシミュレータで多様なトレーニングタスクを生成するための進化的アプローチである。
実験の結果,DIVAの複雑なパラメータ化を克服し,適応剤の挙動を訓練するユニークな能力を示す。
論文 参考訳(メタデータ) (2024-11-07T06:27:12Z) - A Simulation System Towards Solving Societal-Scale Manipulation [14.799498804818333]
AIによる操作の台頭は、社会的信頼と民主的プロセスに重大なリスクをもたらす。
しかし、これらの効果を現実世界で大規模に研究することは倫理的にも論理的にも非現実的です。
この問題に対処するために設計されたシミュレーション環境を提案する。
論文 参考訳(メタデータ) (2024-10-17T03:16:24Z) - Evaluating Real-World Robot Manipulation Policies in Simulation [91.55267186958892]
実環境と模擬環境の制御と視覚的格差は、信頼性のある模擬評価の鍵となる課題である。
実環境に完全忠実なデジタル双生児を作らなくても、これらのギャップを軽減できる手法を提案する。
シミュレーション環境の集合体であるSIMPLERを作成した。
論文 参考訳(メタデータ) (2024-05-09T17:30:16Z) - S2R-ViT for Multi-Agent Cooperative Perception: Bridging the Gap from
Simulation to Reality [41.25312194294171]
本稿では,S2R-ViT と名付けられた新しい視覚変換器を用いて,マルチエージェント協調認識のための第1から第1の現実への変換学習フレームワークを提案する。
OPV2VとV2V4Realの公共マルチエージェント協調認識データセットに関する実験により,提案したS2R-ViTがシミュレーションから現実へのギャップを効果的に埋めることを示す。
論文 参考訳(メタデータ) (2023-07-16T03:54:10Z) - Differentiable Agent-based Epidemiology [71.81552021144589]
GradABM(GradABM)は、エージェントベースのモデリングのためのスケーラブルで微分可能な設計で、勾配に基づく学習と自動微分が可能である。
GradABMは、コモディティハードウェア上で数秒で数百万の人口をシミュレートし、ディープニューラルネットワークと統合し、異種データソースを取り込みます。
論文 参考訳(メタデータ) (2022-07-20T07:32:02Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z) - TrafficSim: Learning to Simulate Realistic Multi-Agent Behaviors [74.67698916175614]
リアル交通シミュレーションのためのマルチエージェント行動モデルであるTrafficSimを提案する。
特に、暗黙の潜在変数モデルを利用して、共同アクターポリシーをパラメータ化する。
TrafficSimは、多様なベースラインと比較して、より現実的で多様なトラフィックシナリオを生成します。
論文 参考訳(メタデータ) (2021-01-17T00:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。