論文の概要: CAMAR: Continuous Actions Multi-Agent Routing
- arxiv url: http://arxiv.org/abs/2508.12845v1
- Date: Mon, 18 Aug 2025 11:32:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.26765
- Title: CAMAR: Continuous Actions Multi-Agent Routing
- Title(参考訳): CAMAR: 継続的アクションによるマルチエージェントルーティング
- Authors: Artem Pshenitsyn, Aleksandr Panov, Alexey Skrynnik,
- Abstract要約: CAMARは,連続動作環境におけるマルチエージェントパスフィンディングのための新しいMARLベンチマークである。
CAMARはエージェント間の協調的および競争的な相互作用をサポートし、毎秒最大10万の環境ステップで効率的に動作する。
また,アルゴリズムの進捗をよりよく追跡し,より深い性能解析を可能にする3層評価プロトコルを提案する。
- 参考スコア(独自算出の注目度): 46.55914539550802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent reinforcement learning (MARL) is a powerful paradigm for solving cooperative and competitive decision-making problems. While many MARL benchmarks have been proposed, few combine continuous state and action spaces with challenging coordination and planning tasks. We introduce CAMAR, a new MARL benchmark designed explicitly for multi-agent pathfinding in environments with continuous actions. CAMAR supports cooperative and competitive interactions between agents and runs efficiently at up to 100,000 environment steps per second. We also propose a three-tier evaluation protocol to better track algorithmic progress and enable deeper analysis of performance. In addition, CAMAR allows the integration of classical planning methods such as RRT and RRT* into MARL pipelines. We use them as standalone baselines and combine RRT* with popular MARL algorithms to create hybrid approaches. We provide a suite of test scenarios and benchmarking tools to ensure reproducibility and fair comparison. Experiments show that CAMAR presents a challenging and realistic testbed for the MARL community.
- Abstract(参考訳): マルチエージェント強化学習(MARL)は協調的・競争的な意思決定問題を解決するための強力なパラダイムである。
多くのMARLベンチマークが提案されているが、継続的な状態と行動空間と困難な調整と計画タスクを組み合わせているものはほとんどない。
CAMARは連続的な動作を持つ環境におけるマルチエージェントパスフィンディングのために明示的に設計された新しいMARLベンチマークである。
CAMARはエージェント間の協調的および競争的な相互作用をサポートし、毎秒最大10万の環境ステップで効率的に動作する。
また,アルゴリズムの進捗をよりよく追跡し,より深い性能解析を可能にする3層評価プロトコルを提案する。
加えて、CAMARはRTRやRT*のような古典的な計画手法をMARLパイプラインに統合することを可能にする。
スタンドアロンのベースラインとして使用し、RRT*と一般的なMARLアルゴリズムを組み合わせてハイブリッドアプローチを作成します。
再現性と公正な比較を確保するために、一連のテストシナリオとベンチマークツールを提供しています。
実験の結果、CAMARはMARLコミュニティにとって挑戦的で現実的なテストベッドであることがわかった。
関連論文リスト
- O-MAPL: Offline Multi-agent Preference Learning [5.4482836906033585]
実演から報酬関数を推定することは強化学習(RL)の重要な課題である
協調型MARLのためのエンドツーエンドの嗜好に基づく新しい学習フレームワークを提案する。
我々のアルゴリズムは様々なタスクにまたがって既存の手法より優れている。
論文 参考訳(メタデータ) (2025-01-31T08:08:20Z) - Certified Policy Smoothing for Cooperative Multi-Agent Reinforcement
Learning [17.957644784944755]
保証された認証境界を持つ動作を決定するために,c-MARLの新たな認証手法を提案する。
我々は、我々の認証境界が最先端のRL認証ソリューションよりもはるかに厳密であることを実証的に示す。
本手法は,すべてのモデルと環境に対して有意義なロバスト性を実現する。
論文 参考訳(メタデータ) (2022-12-22T14:36:27Z) - MARLlib: A Scalable and Efficient Multi-agent Reinforcement Learning
Library [82.77446613763809]
本稿では,マルチエージェントタスクとアルゴリズムの組み合わせを高速に開発するためのライブラリであるMARLlibを紹介する。
MARLlibは、マルチエージェントタスクとアルゴリズムの学習過程を効果的に切り離すことができる。
ライブラリのソースコードはGitHubで公開されている。
論文 参考訳(メタデータ) (2022-10-11T03:11:12Z) - Towards Comprehensive Testing on the Robustness of Cooperative
Multi-agent Reinforcement Learning [10.132303690998523]
c-MARLアルゴリズムが実際にデプロイされる前に、ロバスト性をテストすることが重要である。
MARLの既存の敵攻撃はテストに使用できるが、1つの堅牢性に制限されている。
我々は,c-MARLアルゴリズムの最初のロバストネステストフレームワークであるMARLSafeを提案する。
論文 参考訳(メタデータ) (2022-04-17T05:15:51Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。