論文の概要: TABX: A High-Throughput Sandbox Battle Simulator for Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2602.01665v1
- Date: Mon, 02 Feb 2026 05:34:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.922388
- Title: TABX: A High-Throughput Sandbox Battle Simulator for Multi-Agent Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習のための高速サンドボックスバトルシミュレータTABX
- Authors: Hayeong Lee, JunHyeok Oh, Byung-Jun Lee,
- Abstract要約: 我々は、再構成可能なマルチエージェントタスクのために、JAX (TABX) におけるトータル・アクセラレーション・バトルシミュレータを導入する。
TABXは大規模な並列化を可能にし、計算オーバーヘッドを大幅に削減する。
高速でスケーラブルで簡単にカスタマイズできるフレームワークを提供することで、TABXは将来の研究のためのスケーラブルな基盤となる。
- 参考スコア(独自算出の注目度): 4.254850120280717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The design of environments plays a critical role in shaping the development and evaluation of cooperative multi-agent reinforcement learning (MARL) algorithms. While existing benchmarks highlight critical challenges, they often lack the modularity required to design custom evaluation scenarios. We introduce the Totally Accelerated Battle Simulator in JAX (TABX), a high-throughput sandbox designed for reconfigurable multi-agent tasks. TABX provides granular control over environmental parameters, permitting a systematic investigation into emergent agent behaviors and algorithmic trade-offs across a diverse spectrum of task complexities. Leveraging JAX for hardware-accelerated execution on GPUs, TABX enables massive parallelization and significantly reduces computational overhead. By providing a fast, extensible, and easily customized framework, TABX facilitates the study of MARL agents in complex structured domains and serves as a scalable foundation for future research. Our code is available at: https://anonymous.4open.science/r/TABX-00CA.
- Abstract(参考訳): 協調型マルチエージェント強化学習(MARL)アルゴリズムの開発と評価において,環境設計が重要な役割を担っている。
既存のベンチマークでは重要な課題が強調されているが、カスタム評価シナリオを設計するために必要なモジュール性が欠如していることが多い。
JAX(Ttally Accelerated Battle Simulator in JAX)は,マルチエージェントタスクを再構成可能な高スループットサンドボックスである。
TABXは環境パラメータのきめ細かい制御を提供し、多様なタスクの複雑な範囲にわたる創発的エージェントの挙動とアルゴリズムのトレードオフを体系的に調査することを可能にする。
GPU上でハードウェアアクセラレーションを実行するためにJAXを利用することで、TABXは大規模な並列化を可能にし、計算オーバーヘッドを大幅に削減する。
高速で拡張性があり、カスタマイズが容易なフレームワークを提供することで、TABXは複雑な構造化ドメインにおけるMARLエージェントの研究を促進し、将来の研究のスケーラブルな基盤として機能する。
私たちのコードは、https://anonymous.4open.science/r/TABX-00CAで利用可能です。
関連論文リスト
- PymooLab: An Open-Source Visual Analytics Framework for Multi-Objective Optimization using LLM-Based Code Generation and MCDM [0.0]
PymooLabは、textitpymoo上に構築されたオープンソースのビジュアル分析環境である。
単一の再現可能なワークフローで構成、実行監視、正式な決定サポートを統合する。
計算集約的な研究のために、PymooLab は JAX を通したネイティブなテキストピモオ加速経路に依存している。
論文 参考訳(メタデータ) (2026-03-02T00:56:32Z) - MARTI-MARS$^2$: Scaling Multi-Agent Self-Search via Reinforcement Learning for Code Generation [64.2621682259008]
セルフサーチスケーリングによるマルチエージェント強化トレーニングと推論フレームワーク(MARTI-MARS2)
本稿では,MARTI-MARS2を用いたマルチエージェント強化学習・推論フレームワークを提案する。
我々は、MARTI-MARS2が77.7%を獲得し、GPT-5.1のような強力なベースラインを、挑戦的なコード生成ベンチマークで上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-08T07:28:44Z) - Multi-Agent Craftax: Benchmarking Open-Ended Multi-Agent Reinforcement Learning at the Hyperscale [53.08403177911567]
textitCraftax-MAは、人気のあるオープンエンドRL環境であるCraftaxの拡張である。
textitCraftax-Coopは異質なエージェント、トレーディング、さらに多くのメカニクスを導入し、エージェント間の複雑な協力を必要としている。
論文 参考訳(メタデータ) (2025-11-07T01:09:36Z) - AgentGit: A Version Control Framework for Reliable and Scalable LLM-Powered Multi-Agent Systems [7.408263799616532]
AgentGitはGitライクなロールバックとブランチをマルチエージェントシステム(MAS)にもたらすフレームワークです。
AgentGitは冗長、ランタイム、トークンの使用を著しく削減し、複数のブランチをまたいだ並列探索をサポートしています。
この作業は、より堅牢なMAS設計への実践的なパスを提供し、コラボレーティブAIシステムにおけるエラー回復、安全な探索、計算、A/Bテストを可能にする。
論文 参考訳(メタデータ) (2025-11-01T17:11:31Z) - Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - InternBootcamp Technical Report: Boosting LLM Reasoning with Verifiable Task Scaling [71.37579508777843]
大規模言語モデル(LLM)は、複雑な推論機能を実現することによって、人工知能に革命をもたらした。
このギャップに対処するため、1000以上のドメイン分散タスク環境からなるオープンソースのフレームワークであるInternBootcampを紹介します。
論文 参考訳(メタデータ) (2025-08-12T05:00:00Z) - MEAL: A Benchmark for Continual Multi-Agent Reinforcement Learning [46.286941981339304]
連続型マルチエージェント強化学習(CMARL)に適した最初のベンチマークであるMEALを紹介する。
既存のCLベンチマークはCPU上で環境を実行するため、計算上のボトルネックが発生し、タスクシーケンスの長さが制限される。
MEALは、JAXをGPUアクセラレーションに利用し、標準デスクトップPC上の100タスクのシーケンスを数時間で連続的に学習することを可能にする。
論文 参考訳(メタデータ) (2025-06-17T21:50:04Z) - Multi-Agent Environments for Vehicle Routing Problems [1.0179489519625304]
本稿では,従来の車両ルーティング問題をシミュレートするマルチエージェント環境からなるライブラリを提案する。
PyTorch上に構築されたこのライブラリは、新しいルーティング問題のカスタマイズと導入を容易にする、柔軟なモジュラーアーキテクチャ設計を提供する。
論文 参考訳(メタデータ) (2024-11-21T18:46:23Z) - Very Large-Scale Multi-Agent Simulation in AgentScope [112.98986800070581]
我々は,ユーザフレンドリーなマルチエージェントプラットフォームであるAgentScopeの新機能とコンポーネントを開発した。
高いスケーラビリティと高効率を実現するために,アクタをベースとした分散機構を提案する。
また、多数のエージェントを便利に監視し、管理するためのWebベースのインターフェースも提供します。
論文 参考訳(メタデータ) (2024-07-25T05:50:46Z) - TDAG: A Multi-Agent Framework based on Dynamic Task Decomposition and Agent Generation [41.21899915378596]
動的タスク分解・エージェント生成(TDAG)に基づくマルチエージェントフレームワークを提案する。
このフレームワークは複雑なタスクを小さなサブタスクに動的に分解し、それぞれが特定の生成されたサブエージェントに割り当てる。
ItineraryBenchは、さまざまな複雑さのタスク間でのメモリ、計画、ツール使用量のエージェントの能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-02-15T18:27:37Z) - JaxMARL: Multi-Agent RL Environments and Algorithms in JAX [105.343918678781]
我々は、GPU対応の効率と多くの一般的なMARL環境のサポートを組み合わせた、最初のオープンソースPythonベースのライブラリであるJaxMARLを紹介します。
我々の実験は、壁時計時間の観点から、JAXベースのトレーニングパイプラインが既存のアプローチの約14倍高速であることを示している。
また、人気の高いStarCraft Multi-Agent ChallengeのJAXベースの近似的な再実装であるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - MALib: A Parallel Framework for Population-based Multi-agent
Reinforcement Learning [61.28547338576706]
人口ベースマルチエージェント強化学習(PB-MARL)は、強化学習(RL)アルゴリズムでネストした一連の手法を指す。
PB-MARLのためのスケーラブルで効率的な計算フレームワークMALibを提案する。
論文 参考訳(メタデータ) (2021-06-05T03:27:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。