論文の概要: Language-Guided Multi-Agent Learning in Simulations: A Unified Framework and Evaluation
- arxiv url: http://arxiv.org/abs/2506.04251v1
- Date: Sun, 01 Jun 2025 06:46:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.301594
- Title: Language-Guided Multi-Agent Learning in Simulations: A Unified Framework and Evaluation
- Title(参考訳): シミュレーションにおける言語指導型マルチエージェント学習:統一フレームワークと評価
- Authors: Zhengyang Li,
- Abstract要約: 本稿では,大規模言語モデル(LLM)をマルチエージェント強化学習(MARL)に組み込んだ統合フレームワークを提案する。
フレームワークにはCoordinator、Communicator、Memoryの3つのモジュールコンポーネントがあり、サブゴールを動的に生成する。
Google Research Football、Magent Battle、StarCraft IIで評価されている。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces LLM-MARL, a unified framework that incorporates large language models (LLMs) into multi-agent reinforcement learning (MARL) to enhance coordination, communication, and generalization in simulated game environments. The framework features three modular components of Coordinator, Communicator, and Memory, which dynamically generate subgoals, facilitate symbolic inter-agent messaging, and support episodic recall. Training combines PPO with a language-conditioned loss and LLM query gating. LLM-MARL is evaluated in Google Research Football, MAgent Battle, and StarCraft II. Results show consistent improvements over MAPPO and QMIX in win rate, coordination score, and zero-shot generalization. Ablation studies demonstrate that subgoal generation and language-based messaging each contribute significantly to performance gains. Qualitative analysis reveals emergent behaviors such as role specialization and communication-driven tactics. By bridging language modeling and policy learning, this work contributes to the design of intelligent, cooperative agents in interactive simulations. It offers a path forward for leveraging LLMs in multi-agent systems used for training, games, and human-AI collaboration.
- Abstract(参考訳): 本稿では,大規模言語モデル (LLM) をマルチエージェント強化学習 (MARL) に組み込んだ統合フレームワーク LLM-MARL について述べる。
このフレームワークはCoordinator、Communicator、Memoryの3つのモジュールコンポーネントを備えており、サブゴールを動的に生成し、シンボリックなエージェント間メッセージングを促進し、エピソードリコールをサポートする。
トレーニングはPPOと言語条件の損失とLLMクエリゲーティングを組み合わせたものだ。
LLM-MARLはGoogle Research Football、Magent Battle、StarCraft IIで評価されている。
その結果,MAPPOとQMIXは勝利率,調整スコア,ゼロショット一般化において一貫した改善が見られた。
アブレーション研究は、サブゴール生成と言語ベースのメッセージングがそれぞれパフォーマンス向上に大きく貢献することを示した。
質的な分析は、役割専門化やコミュニケーション駆動戦術のような創発的な行動を明らかにする。
言語モデリングと政策学習をブリッジすることにより、対話型シミュレーションにおけるインテリジェントで協調的なエージェントの設計に寄与する。
トレーニング、ゲーム、人間とAIのコラボレーションに使用されるマルチエージェントシステムでLLMを活用するための道筋を提供する。
関連論文リスト
- Enhancing Multi-Agent Systems via Reinforcement Learning with LLM-based Planner and Graph-based Policy [31.041340552853004]
Graph Collaboration MARL (LGC-MARL)は、Large Language Models (LLM)とMulti-Agent Reinforcement Learning (MARL)を効率的に組み合わせたフレームワークである。
LGC-MARLは複雑なタスクを実行可能なサブタスクに分解し、グラフベースの調整によって複数のエージェント間の効率的な協調を実現する。
AI2-THORシミュレーションプラットフォームの実験結果から,LGC-MARLの性能とスケーラビリティが向上した。
論文 参考訳(メタデータ) (2025-03-13T05:02:49Z) - Cooperative Multi-Agent Planning with Adaptive Skill Synthesis [16.228784877899976]
本稿では、視覚言語モデル(VLM)を動的スキルライブラリと統合し、分散化されたクローズドループ決定のための構造化通信を行う新しいマルチエージェントアーキテクチャを提案する。
デモからブートストラップされたスキルライブラリは、プラナー誘導タスクを通じて進化し、適応戦略を実現する。
我々は、その最先端のMARLベースラインに対して、対称シナリオと非対称シナリオの両方で強力な性能を示す。
論文 参考訳(メタデータ) (2025-02-14T13:23:18Z) - Verco: Learning Coordinated Verbal Communication for Multi-agent Reinforcement Learning [42.27106057372819]
本稿では,大規模言語モデルをエージェントに組み込むマルチエージェント強化学習アルゴリズムを提案する。
フレームワークにはメッセージモジュールとアクションモジュールがある。
オーバークッキングゲームで行った実験は,既存の手法の学習効率と性能を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2024-04-27T05:10:33Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - LLM-Coordination: Evaluating and Analyzing Multi-agent Coordination Abilities in Large Language Models [23.092480882456048]
大きな言語モデル(LLM)は、創発的な常識推論と心の理論(ToM)能力を示している。
本研究では,Pure Coordination Sets の文脈で LLM を解析するための新しいベンチマークである LLM-Coordination Benchmark を紹介する。
論文 参考訳(メタデータ) (2023-10-05T21:18:15Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。