論文の概要: Dynamic Noises of Multi-Agent Environments Can Improve Generalization:
Agent-based Models meets Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2204.14076v1
- Date: Sat, 26 Mar 2022 09:56:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 18:51:01.324987
- Title: Dynamic Noises of Multi-Agent Environments Can Improve Generalization:
Agent-based Models meets Reinforcement Learning
- Title(参考訳): 多エージェント環境の動的ノイズは一般化を改善できる:エージェントベースモデルによる強化学習
- Authors: Mohamed Akrout, Amal Feriani, Bob McLeod
- Abstract要約: エージェントベースモデル(ABM)に基づく強化学習環境の利点について検討する。
それらの非決定論的ダイナミクスは、RLエージェントの一般化を改善することができることを示す。
数値シミュレーションにより、SIRモデルの内在雑音は平均報酬を改善するだけでなく、より広い範囲の流行パラメータに基づいてRLエージェントを一般化できることを示した。
- 参考スコア(独自算出の注目度): 2.492300648514128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the benefits of reinforcement learning (RL) environments based on
agent-based models (ABM). While ABMs are known to offer microfoundational
simulations at the cost of computational complexity, we empirically show in
this work that their non-deterministic dynamics can improve the generalization
of RL agents. To this end, we examine the control of an epidemic SIR
environments based on either differential equations or ABMs. Numerical
simulations demonstrate that the intrinsic noise in the ABM-based dynamics of
the SIR model not only improve the average reward but also allow the RL agent
to generalize on a wider ranges of epidemic parameters.
- Abstract(参考訳): エージェントベースモデル(ABM)に基づく強化学習環境(RL)の利点について検討した。
ABMは計算複雑性を犠牲にしてマイクロファウンデーションシミュレーションを提供することが知られているが、これらの非決定論的力学がRLエージェントの一般化を改善することを実証的に示す。
そこで本研究では, ディファレンシャル方程式あるいはABMに基づいて, 流行SIR環境の制御について検討する。
数値シミュレーションにより、SIRモデルの内在雑音は平均報酬を改善するだけでなく、より広い範囲の流行パラメータに基づいてRLエージェントを一般化できることを示した。
関連論文リスト
- On the Modeling Capabilities of Large Language Models for Sequential Decision Making [52.128546842746246]
大規模な事前訓練されたモデルでは、推論や計画タスクのパフォーマンスがますます向上している。
我々は、直接的または間接的に、意思決定ポリシーを作成する能力を評価する。
未知の力学を持つ環境において、合成データを用いた微調整LDMが報酬モデリング能力を大幅に向上させる方法について検討する。
論文 参考訳(メタデータ) (2024-10-08T03:12:57Z) - On the limits of agency in agent-based models [13.130587222524305]
エージェントベースモデリングは複雑なシステムに対する強力な洞察を提供するが、その実用性は計算の制約によって制限されている。
大規模言語モデル(LLM)の最近の進歩は、適応エージェントによるABMを強化する可能性があるが、大規模なシミュレーションへの統合は依然として困難である。
大規模シミュレーションにおいて,行動複雑性と計算効率のバランスをとる手法であるLSMアーチタイプを提案する。
論文 参考訳(メタデータ) (2024-09-14T04:17:24Z) - Model-Based RL for Mean-Field Games is not Statistically Harder than Single-Agent RL [57.745700271150454]
モデルに基づく関数近似を用いた平均フィールドゲーム(MFG)における強化学習のサンプル複雑性について検討した。
本稿では、モデルクラスの複雑性を特徴付けるためのより効果的な概念である部分モデルベースエルダー次元(P-MBED)を紹介する。
論文 参考訳(メタデータ) (2024-02-08T14:54:47Z) - Data-Efficient Task Generalization via Probabilistic Model-based Meta
Reinforcement Learning [58.575939354953526]
PACOH-RLはメタ強化学習(Meta-RL)アルゴリズムである。
既存のMeta-RLメソッドは豊富なメタ学習データを必要とし、ロボット工学などの設定で適用性を制限する。
実験の結果,PACOH-RLはモデルベースRLおよびモデルベースMeta-RLベースラインよりも高い性能を示し,新しい動的条件に適応することがわかった。
論文 参考訳(メタデータ) (2023-11-13T18:51:57Z) - Differentiable Agent-based Epidemiology [71.81552021144589]
GradABM(GradABM)は、エージェントベースのモデリングのためのスケーラブルで微分可能な設計で、勾配に基づく学習と自動微分が可能である。
GradABMは、コモディティハードウェア上で数秒で数百万の人口をシミュレートし、ディープニューラルネットワークと統合し、異種データソースを取り込みます。
論文 参考訳(メタデータ) (2022-07-20T07:32:02Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - KNODE-MPC: A Knowledge-based Data-driven Predictive Control Framework
for Aerial Robots [5.897728689802829]
我々は、知識に基づくニューラル常微分方程式(KNODE)というディープラーニングツールを用いて、第一原理から得られたモデルを拡張する。
得られたハイブリッドモデルは、名目上の第一原理モデルと、シミュレーションまたは実世界の実験データから学習したニューラルネットワークの両方を含む。
閉ループ性能を改善するため、ハイブリッドモデルはKNODE-MPCとして知られる新しいMPCフレームワークに統合される。
論文 参考訳(メタデータ) (2021-09-10T12:09:18Z) - Non-Markovian Reinforcement Learning using Fractional Dynamics [3.000697999889031]
強化学習(Reinforcement Learning, RL)は、環境と相互作用するエージェントの制御ポリシーを学ぶ技術である。
本稿では,非マルコフ力学を持つシステムに対するモデルベースRL手法を提案する。
このような環境は、人間の生理学、生物学的システム、物質科学、人口動態など、現実世界の多くの応用で一般的である。
論文 参考訳(メタデータ) (2021-07-29T07:35:13Z) - Policy-focused Agent-based Modeling using RL Behavioral Models [0.40498500266986387]
本稿では, ABMにおけるエージェント決定の適応的, 高い性能, 行動的妥当性のモデルとして, 強化学習モデルの価値について検討する。
RL エージェントは政策 ABM における実用最大化エージェントとして有効である,という仮説を検証した。
実験により、RLの行動モデルは、ABMエージェントの報酬探索や報酬最大化行動を生成するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-09T04:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。