論文の概要: A Framework for Scalable Heterogeneous Multi-Agent Adversarial Reinforcement Learning in IsaacLab
- arxiv url: http://arxiv.org/abs/2510.01264v1
- Date: Fri, 26 Sep 2025 03:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.225516
- Title: A Framework for Scalable Heterogeneous Multi-Agent Adversarial Reinforcement Learning in IsaacLab
- Title(参考訳): アイザックラボにおけるスケーラブルな異種多言語対応強化学習フレームワーク
- Authors: Isaac Peterson, Christopher Allred, Jacob Morrey, Mario Harper,
- Abstract要約: マルチエージェント強化学習(MARL)は、動的環境下で協調するロボットシステムの中心である。
我々はIsaacLabフレームワークを拡張し、高忠実度物理シミュレーションにおける敵ポリシーのスケーラブルなトレーニングを支援する。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Agent Reinforcement Learning (MARL) is central to robotic systems cooperating in dynamic environments. While prior work has focused on these collaborative settings, adversarial interactions are equally critical for real-world applications such as pursuit-evasion, security, and competitive manipulation. In this work, we extend the IsaacLab framework to support scalable training of adversarial policies in high-fidelity physics simulations. We introduce a suite of adversarial MARL environments featuring heterogeneous agents with asymmetric goals and capabilities. Our platform integrates a competitive variant of Heterogeneous Agent Reinforcement Learning with Proximal Policy Optimization (HAPPO), enabling efficient training and evaluation under adversarial dynamics. Experiments across several benchmark scenarios demonstrate the framework's ability to model and train robust policies for morphologically diverse multi-agent competition while maintaining high throughput and simulation realism. Code and benchmarks are available at: https://github.com/DIRECTLab/IsaacLab-HARL .
- Abstract(参考訳): MARL(Multi-Agent Reinforcement Learning)は、動的環境下で協調するロボットシステムの中心である。
以前の作業では、これらの協調的な設定に重点を置いていたが、追従回避、セキュリティ、競合操作といった現実世界のアプリケーションでは、敵の相互作用が同じように重要である。
本研究はIsaacLabフレームワークを拡張し,高忠実度物理シミュレーションにおける敵ポリシーのスケーラブルなトレーニングを支援する。
非対称な目標と能力を持つ異種エージェントを特徴とする対向的MARL環境について紹介する。
提案プラットフォームは,HAPPO (Herogeneous Agent Reinforcement Learning) とHAPPO (Proximal Policy Optimization) の競合型を統合し,対向力学による効率的な学習と評価を可能にする。
いくつかのベンチマークシナリオに対する実験は、高いスループットとシミュレーションリアリズムを維持しながら、形態的に多様なマルチエージェント競合に対する堅牢なポリシーをモデル化し、トレーニングするフレームワークの能力を実証している。
コードとベンチマークは、https://github.com/DIRECTLab/IsaacLab-HARL で公開されている。
関連論文リスト
- Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Mixed-Reality Digital Twins: Leveraging the Physical and Virtual Worlds for Hybrid Sim2Real Transition of Multi-Agent Reinforcement Learning Policies [0.0]
本研究は、並列化シミュレーションワークロードをオンデマンドで選択的にスケーリングすることで、トレーニング速度を向上できる混合現実(MR)デジタルツイン(DT)フレームワークを提案する。
i) エージェントと環境並列化が訓練時間に及ぼす影響, (ii) ドメインランダム化がゼロショットsim2real転送に与える影響について検討した。
その結果、提案した並列化スキームとsim2realのギャップを2.9%に抑えることで、最大76.3%のトレーニング時間を短縮できることがわかった。
論文 参考訳(メタデータ) (2024-03-16T18:47:04Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Multi-Agent Interactions Modeling with Correlated Policies [53.38338964628494]
本稿では,マルチエージェントインタラクションモデリング問題をマルチエージェント模倣学習フレームワークに実装する。
相関ポリシー(CoDAIL)を用いた分散型適応模倣学習アルゴリズムの開発
様々な実験により、CoDAILはデモレーターに近い複雑な相互作用をより良く再生できることが示されている。
論文 参考訳(メタデータ) (2020-01-04T17:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。