論文の概要: A Framework for Scalable Heterogeneous Multi-Agent Adversarial Reinforcement Learning in IsaacLab
- arxiv url: http://arxiv.org/abs/2510.01264v1
- Date: Fri, 26 Sep 2025 03:16:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.225516
- Title: A Framework for Scalable Heterogeneous Multi-Agent Adversarial Reinforcement Learning in IsaacLab
- Title(参考訳): アイザックラボにおけるスケーラブルな異種多言語対応強化学習フレームワーク
- Authors: Isaac Peterson, Christopher Allred, Jacob Morrey, Mario Harper,
- Abstract要約: マルチエージェント強化学習(MARL)は、動的環境下で協調するロボットシステムの中心である。
我々はIsaacLabフレームワークを拡張し、高忠実度物理シミュレーションにおける敵ポリシーのスケーラブルなトレーニングを支援する。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-Agent Reinforcement Learning (MARL) is central to robotic systems cooperating in dynamic environments. While prior work has focused on these collaborative settings, adversarial interactions are equally critical for real-world applications such as pursuit-evasion, security, and competitive manipulation. In this work, we extend the IsaacLab framework to support scalable training of adversarial policies in high-fidelity physics simulations. We introduce a suite of adversarial MARL environments featuring heterogeneous agents with asymmetric goals and capabilities. Our platform integrates a competitive variant of Heterogeneous Agent Reinforcement Learning with Proximal Policy Optimization (HAPPO), enabling efficient training and evaluation under adversarial dynamics. Experiments across several benchmark scenarios demonstrate the framework's ability to model and train robust policies for morphologically diverse multi-agent competition while maintaining high throughput and simulation realism. Code and benchmarks are available at: https://github.com/DIRECTLab/IsaacLab-HARL .
- Abstract(参考訳): MARL(Multi-Agent Reinforcement Learning)は、動的環境下で協調するロボットシステムの中心である。
以前の作業では、これらの協調的な設定に重点を置いていたが、追従回避、セキュリティ、競合操作といった現実世界のアプリケーションでは、敵の相互作用が同じように重要である。
本研究はIsaacLabフレームワークを拡張し,高忠実度物理シミュレーションにおける敵ポリシーのスケーラブルなトレーニングを支援する。
非対称な目標と能力を持つ異種エージェントを特徴とする対向的MARL環境について紹介する。
提案プラットフォームは,HAPPO (Herogeneous Agent Reinforcement Learning) とHAPPO (Proximal Policy Optimization) の競合型を統合し,対向力学による効率的な学習と評価を可能にする。
いくつかのベンチマークシナリオに対する実験は、高いスループットとシミュレーションリアリズムを維持しながら、形態的に多様なマルチエージェント競合に対する堅牢なポリシーをモデル化し、トレーニングするフレームワークの能力を実証している。
コードとベンチマークは、https://github.com/DIRECTLab/IsaacLab-HARL で公開されている。
関連論文リスト
- MARTI-MARS$^2$: Scaling Multi-Agent Self-Search via Reinforcement Learning for Code Generation [64.2621682259008]
セルフサーチスケーリングによるマルチエージェント強化トレーニングと推論フレームワーク(MARTI-MARS2)
本稿では,MARTI-MARS2を用いたマルチエージェント強化学習・推論フレームワークを提案する。
我々は、MARTI-MARS2が77.7%を獲得し、GPT-5.1のような強力なベースラインを、挑戦的なコード生成ベンチマークで上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-08T07:28:44Z) - MedSAM-Agent: Empowering Interactive Medical Image Segmentation with Multi-turn Agentic Reinforcement Learning [53.37068897861388]
MedSAM-Agentは、対話的なセグメンテーションを多段階の自律的な意思決定プロセスとして再構築するフレームワークである。
マルチターン・エンド・ツー・エンドの成果検証を統合した2段階のトレーニングパイプラインを開発した。
6つの医療モダリティと21のデータセットにわたる実験は、MedSAM-Agentが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2026-02-03T09:47:49Z) - TongSIM: A General Platform for Simulating Intelligent Machines [59.27575233453533]
エボディード・インテリジェンス(Embodied Intelligence)は、現実的なシミュレートされた環境における訓練エージェントに焦点を当てる。
TongSIMは、エンボディエージェントのトレーニングと評価のための高忠実で汎用的なプラットフォームである。
論文 参考訳(メタデータ) (2025-12-23T10:00:43Z) - Application of LLM Guided Reinforcement Learning in Formation Control with Collision Avoidance [1.1718316049475228]
マルチエージェントシステム(Multi-Agent Systems、MAS)は、個々のエージェントの協調作業を通じて複雑な目的を達成する。
本稿では,効果的な報酬関数を設計する上での課題を克服する新しい枠組みを提案する。
タスクの優先順位付けにおいて,大規模言語モデル(LLM)を付与することにより,オンライン上で動的に調整可能な報酬関数を生成する。
論文 参考訳(メタデータ) (2025-07-22T09:26:00Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - Mixed-Reality Digital Twins: Leveraging the Physical and Virtual Worlds for Hybrid Sim2Real Transition of Multi-Agent Reinforcement Learning Policies [0.0]
本研究は、並列化シミュレーションワークロードをオンデマンドで選択的にスケーリングすることで、トレーニング速度を向上できる混合現実(MR)デジタルツイン(DT)フレームワークを提案する。
i) エージェントと環境並列化が訓練時間に及ぼす影響, (ii) ドメインランダム化がゼロショットsim2real転送に与える影響について検討した。
その結果、提案した並列化スキームとsim2realのギャップを2.9%に抑えることで、最大76.3%のトレーニング時間を短縮できることがわかった。
論文 参考訳(メタデータ) (2024-03-16T18:47:04Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Learning in Cooperative Multiagent Systems Using Cognitive and Machine
Models [1.0742675209112622]
マルチエージェントシステム(MAS)は、人間との協調と協調を必要とする多くのアプリケーションにとって重要である。
一つの大きな課題は、動的環境における独立したエージェントの同時学習と相互作用である。
我々はMulti-Agent IBLモデル(MAIBL)の3つの変種を提案する。
我々は,MAIBLモデルが学習速度を向上し,動的CMOTPタスクにおいて,現在のMADRLモデルと比較して様々な報酬設定でコーディネートを達成できることを実証した。
論文 参考訳(メタデータ) (2023-08-18T00:39:06Z) - High Performance Simulation for Scalable Multi-Agent Reinforcement
Learning [1.675857332621569]
高性能エージェントベースモデル(ABM)フレームワークであるVogueの使用を実演する。
Vogueはマルチエージェントのトレーニング環境として機能し、数千から数万の対話エージェントをサポートする。
これらの環境は、時間スケールの分と時間で共有RLポリシーを訓練できることを示す。
論文 参考訳(メタデータ) (2022-07-08T14:54:06Z) - Efficient Model-based Multi-agent Reinforcement Learning via Optimistic
Equilibrium Computation [93.52573037053449]
H-MARL (Hallucinated Multi-Agent Reinforcement Learning) は,環境と数回交流した後の平衡政策を学習する。
自律運転シミュレーションベンチマークにおいて,本手法を実験的に実証した。
論文 参考訳(メタデータ) (2022-03-14T17:24:03Z) - Multi-Agent Interactions Modeling with Correlated Policies [53.38338964628494]
本稿では,マルチエージェントインタラクションモデリング問題をマルチエージェント模倣学習フレームワークに実装する。
相関ポリシー(CoDAIL)を用いた分散型適応模倣学習アルゴリズムの開発
様々な実験により、CoDAILはデモレーターに近い複雑な相互作用をより良く再生できることが示されている。
論文 参考訳(メタデータ) (2020-01-04T17:31:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。