論文の概要: EconoJax: A Fast & Scalable Economic Simulation in Jax
- arxiv url: http://arxiv.org/abs/2410.22165v1
- Date: Tue, 29 Oct 2024 16:02:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:38:44.217852
- Title: EconoJax: A Fast & Scalable Economic Simulation in Jax
- Title(参考訳): EconoJax: Jaxの高速でスケーラブルな経済シミュレーション
- Authors: Koen Ponse, Aske Plaat, Niki van Stein, Thomas M. Moerland,
- Abstract要約: 本稿では,AI経済学に基づく高速シミュレーション経済であるEconoJaxを紹介する。
EconoJaxとそのトレーニングパイプラインは完全にJAXで書かれています。
実世界の経済行動が15分以内のトレーニングによってどのように現れるかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Accurate economic simulations often require many experimental runs, particularly when combined with reinforcement learning. Unfortunately, training reinforcement learning agents in multi-agent economic environments can be slow. This paper introduces EconoJax, a fast simulated economy, based on the AI economist. EconoJax, and its training pipeline, are completely written in JAX. This allows EconoJax to scale to large population sizes and perform large experiments, while keeping training times within minutes. Through experiments with populations of 100 agents, we show how real-world economic behavior emerges through training within 15 minutes, in contrast to previous work that required several days. To aid and inspire researchers to build more rich and dynamic economic simulations, we open-source EconoJax on Github at: https://github.com/ponseko/econojax.
- Abstract(参考訳): 正確な経済シミュレーションは、特に強化学習と組み合わせた場合、多くの実験的な実行を必要とすることが多い。
残念ながら、マルチエージェント経済環境における強化学習エージェントの訓練は遅くなる可能性がある。
本稿では,AI経済学に基づく高速シミュレーション経済であるEconoJaxを紹介する。
EconoJaxとそのトレーニングパイプラインは、完全にJAXで書かれています。
これにより、EconoJaxは大規模な人口に拡大し、数分以内にトレーニング時間を維持しながら大規模な実験を行うことができる。
100人のエージェントによる実験を通して、15分以内のトレーニングによって現実の経済行動が出現することを示す。
研究者がよりリッチでダイナミックな経済シミュレーションを構築するのを助けるために、私たちはGithubでEconoJaxをオープンソースにしました。
関連論文リスト
- JaxLife: An Open-Ended Agentic Simulator [3.479490713357225]
我々は、深層ニューラルネットワークによってパラメータ化されたエンボディエージェントが生き残ることを学ばなければならない人工生命シミュレータJaxLifeを提示する。
まず、環境を記述し、有意義なチューリング完全計算を実現できることを示す。
次に、初歩的なコミュニケーションプロトコル、農業、ツール利用など、進化した創発的エージェントの行動を分析する。
論文 参考訳(メタデータ) (2024-09-01T22:05:02Z) - An Economic Framework for 6-DoF Grasp Detection [28.25609101289935]
本研究では,訓練における資源コストの低減と効果的な把握性能の維持を目的とした,6-DoFグリップ検出のための経済的な枠組みを提案する。
EconomicGrasp は SOTA の把握法を平均 3AP で上回り,資源コストが極端に低い。
論文 参考訳(メタデータ) (2024-07-11T10:19:48Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Sim-and-Real Reinforcement Learning for Manipulation: A Consensus-based
Approach [4.684126055213616]
マニピュレータのピック・アンド・プレイスタスクのための,コンセンサスに基づくCSAR(Sim-And-Real Deep reinforcement Learning)アルゴリズムを提案する。
我々はシミュレーターと実世界のエージェントを訓練し、シミュレートと実世界の両方の最適なポリシーを得る。
論文 参考訳(メタデータ) (2023-02-26T22:27:23Z) - Simulation-Based Parallel Training [55.41644538483948]
このようなボトルネックを緩和するトレーニングフレームワークを設計するために、現在進行中の作業を紹介します。
トレーニングプロセスと並行してデータを生成する。
このバイアスをメモリバッファで軽減する戦略を提案する。
論文 参考訳(メタデータ) (2022-11-08T09:31:25Z) - Parallel Reinforcement Learning Simulation for Visual Quadrotor
Navigation [4.597465975849579]
強化学習(Reinforcement Learning、RL)は、ロボットに物理的な世界の中をナビゲートするように教えるエージェントベースのアプローチである。
本稿では,AirSim上に構築された並列学習を効率的に行うシミュレーションフレームワークを提案する。
このフレームワーク上に構築されたApe-Xは、AirSim環境の分散トレーニングを組み込むように修正されている。
論文 参考訳(メタデータ) (2022-09-22T15:27:42Z) - Finding General Equilibria in Many-Agent Economic Simulations Using Deep
Reinforcement Learning [72.23843557783533]
本研究では,エージェント種別のメタゲームに対して,エプシロン・ナッシュ平衡である安定解を求めることができることを示す。
私たちのアプローチはより柔軟で、例えば市場クリア化のような非現実的な仮定は必要ありません。
当社のアプローチは、実際のビジネスサイクルモデル、DGEモデルの代表的なファミリー、100人の労働者消費者、10社の企業、税金と再分配を行う政府で実証しています。
論文 参考訳(メタデータ) (2022-01-03T17:00:17Z) - The AI Economist: Optimal Economic Policy Design via Two-level Deep
Reinforcement Learning [126.37520136341094]
機械学習に基づく経済シミュレーションは強力な政策・メカニズム設計の枠組みであることを示す。
AIエコノミスト(AI Economist)は、エージェントと共同適応するソーシャルプランナーの両方を訓練する2段階のディープRLフレームワークである。
単純な一段階の経済では、AIエコノミストは経済理論の最適税制を回復する。
論文 参考訳(メタデータ) (2021-08-05T17:42:35Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。