論文の概要: Learn as Individuals, Evolve as a Team: Multi-agent LLMs Adaptation in Embodied Environments
- arxiv url: http://arxiv.org/abs/2506.07232v1
- Date: Sun, 08 Jun 2025 17:32:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.722547
- Title: Learn as Individuals, Evolve as a Team: Multi-agent LLMs Adaptation in Embodied Environments
- Title(参考訳): 個人として学ぶ, チームとして進化する: 身体環境における多エージェントLSM適応
- Authors: Xinran Li, Chenjia Bai, Zijian Li, Jiakun Zheng, Ting Xiao, Jun Zhang,
- Abstract要約: 大規模言語モデル (LLM) には広範な知識基盤と強力な推論能力がある。
既存のLCMベースの計画アルゴリズムは、マルチエージェントの具体化シナリオへの弱い適応能力によって制限される。
我々は,LLMエージェントがテスト前後で学習し,進化することを可能にするフレームワークを導入する。
- 参考スコア(独自算出の注目度): 9.128357856312372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) possess extensive knowledge bases and strong reasoning capabilities, making them promising tools for complex, multi-agent planning in embodied environments. However, despite LLMs' advanced abilities and the sophisticated modular design of agentic methods, existing LLM-based planning algorithms remain limited by weak adaptation capabilities to multi-agent embodied scenarios. We address this limitation by introducing a framework that enables LLM agents to learn and evolve both before and during test time, equipping them with environment-relevant knowledge for better planning and enhanced communication for improved cooperation. Inspired by centralized training with decentralized execution in multi-agent reinforcement learning, we propose a \textit{Learn as Individuals, Evolve as a Team (LIET)} paradigm for multi-agent LLMs adaptation. At the individual level, LLM agents learn a local utility function from exploratory datasets to better comprehend the embodied environment, which is then queried during test time to support informed decision-making. At the team level, LLM agents collaboratively and iteratively maintain and update a shared cooperation knowledge list based on new experiences, using it to guide more effective communication. By combining individual learning with team evolution, LIET enables comprehensive and flexible adaptation for LLM agents. Our experiments on Communicative Watch-And-Help and ThreeD-World Multi-Agent Transport benchmarks demonstrate that LIET, instantiated with both LLaMA and GPT-4o, outperforms existing baselines and exhibits strong cooperative planning abilities.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広い知識基盤と強力な推論能力を持ち、エンボディ環境で複雑なマルチエージェント計画のための有望なツールである。
しかし、LLMの高度な能力とエージェント手法の高度なモジュラー設計にもかかわらず、既存のLLMベースの計画アルゴリズムは、マルチエージェントの具体化シナリオへの弱い適応能力によって制限されている。
我々は、LLMエージェントがテスト前後の両方で学習・進化できるフレームワークを導入し、環境関連知識を取り入れて、より良い計画とコミュニケーションを強化し、協調性を向上させることで、この制限に対処する。
マルチエージェント強化学習における分散実行による集中的学習に着想を得て,多エージェントLLM適応のための「個人としての学習,チームとしての進化(LIET)」パラダイムを提案する。
個々のレベルでは、LLMエージェントは探索データセットからローカルユーティリティ関数を学び、エンボディ環境をよりよく理解し、テスト時間中にクエリされ、情報的意思決定をサポートする。
チームレベルでは、LLMエージェントが協力的かつ反復的に、新しい経験に基づいて共有協力知識リストをメンテナンスし、更新します。
個別の学習とチームの進化を組み合わせることで、LIETはLLMエージェントの包括的な柔軟な適応を可能にします。
通信型Watch-And-Helpおよび3D-World Multi-Agent Transportベンチマークの実験では、LIETはLLaMAとGPT-4oでインスタンス化され、既存のベースラインを上回っ、強力な協調計画能力を示す。
関連論文リスト
- When One LLM Drools, Multi-LLM Collaboration Rules [98.71562711695991]
私たちは、データ、スキル、人々の幅広い多様性を表現するために、マルチLLMコラボレーションを議論しています。
既存のマルチLLM協調手法を,アクセスレベルと情報交換レベルに基づいて階層構造に整理する。
コンポジションインテリジェンスとコラボレーティブAI開発への不可欠な道として,マルチLLMコラボレーションを構想する。
論文 参考訳(メタデータ) (2025-02-06T21:13:44Z) - Large Language Model as a Catalyst: A Paradigm Shift in Base Station Siting Optimization [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
提案するフレームワークは、検索拡張生成(RAG)を組み込んで、ドメイン固有の知識を取得してソリューションを生成するシステムの能力を高める。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - Embodied LLM Agents Learn to Cooperate in Organized Teams [46.331162216503344]
大規模言語モデル(LLM)は、推論、計画、意思決定のための統合的なツールとして登場した。
本稿では,これらの問題を緩和するために,LSMエージェントにプロンプトベースの組織構造を課す枠組みを提案する。
論文 参考訳(メタデータ) (2024-03-19T06:39:47Z) - EnvGen: Generating and Adapting Environments via LLMs for Training Embodied Agents [65.38474102119181]
トレーニング環境を適応的に作成するフレームワークであるEnvGenを提案する。
我々は、LLM生成環境とLLM生成環境を混合した小さなRLエージェントを訓練する。
我々は、EnvGenで訓練された小さなRLエージェントが、GPT-4エージェントを含むSOTAメソッドより優れており、長い水平タスクをかなり高速に学習できることを発見した。
論文 参考訳(メタデータ) (2024-03-18T17:51:16Z) - LLMArena: Assessing Capabilities of Large Language Models in Dynamic
Multi-Agent Environments [35.926581910260076]
マルチエージェント動的環境における大規模言語モデルの能力を評価するためのフレームワークであるLLMArenaを紹介する。
LLArenaはTrueskillスコアを使用して、空間推論、戦略的計画、数値推論、リスク評価、コミュニケーション、相手モデリング、チームコラボレーションなど、LLMエージェントの重要な能力を評価する。
我々は、LLMの規模や種類によって、広範囲にわたる実験と人的評価を行い、LLMは、完全に自律的なエージェントへと発展する上で、依然として重要な道のりを歩んでいることを示す。
論文 参考訳(メタデータ) (2024-02-26T11:31:48Z) - Offline Training of Language Model Agents with Functions as Learnable Weights [39.88545362699836]
LLM重みを変更することなくLLM(Large Language Models)エージェントを訓練する新しいパラダイムを提案する。
LLMを利用してエージェントの機能を更新し、ロールバックとアーリーストップという2つの戦略でエージェントトレーニングアルゴリズムを考案するエージェントを開発する。
広範囲な実験により、エージェント訓練パラダイムが代表的LLMエージェントの性能を大幅に改善できることが示される。
論文 参考訳(メタデータ) (2024-02-17T18:31:21Z) - Experiential Co-Learning of Software-Developing Agents [83.34027623428096]
大規模言語モデル(LLM)は、特にソフトウェア開発において、様々な領域に大きな変化をもたらした。
本稿では,新しいLLM学習フレームワークであるExperiential Co-Learningを紹介する。
実験では、このフレームワークにより、エージェントは、目に見えないソフトウェア開発タスクをより効果的に対処できることを示した。
論文 参考訳(メタデータ) (2023-12-28T13:50:42Z) - AgentBench: Evaluating LLMs as Agents [88.45506148281379]
大規模言語モデル(LLM)は、従来のNLPタスクを超えた現実的な実用的ミッションをターゲットとして、ますます賢く自律的になってきています。
我々は,現在8つの異なる環境からなるベンチマークであるAgentBenchを紹介し,LLM-as-Agentの推論と意思決定能力を評価する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。