論文の概要: MineLand: Simulating Large-Scale Multi-Agent Interactions with Limited Multimodal Senses and Physical Needs
- arxiv url: http://arxiv.org/abs/2403.19267v2
- Date: Thu, 23 May 2024 14:27:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 05:50:08.874878
- Title: MineLand: Simulating Large-Scale Multi-Agent Interactions with Limited Multimodal Senses and Physical Needs
- Title(参考訳): MineLand: 限られたマルチモーダルセンサと物理的ニーズによる大規模マルチエージェントインタラクションのシミュレーション
- Authors: Xianhao Yu, Jiaqi Fu, Renjia Deng, Wenjuan Han,
- Abstract要約: 大規模スケーラビリティ,マルチモーダル感覚の制限,物理的ニーズの3つの重要な特徴を導入することで,このギャップを埋めるマルチエージェントMinecraftシミュレータであるMineLandを提案する。
シミュレータは64以上のエージェントをサポートします。エージェントは視覚的,聴覚的,環境的な意識に制限があり,食物や資源といった物理的ニーズを満たすために積極的にコミュニケーションし,協力せざるを得ません。
実験により,シミュレータ,対応するベンチマーク,およびAIエージェントフレームワークが,より生態学的・ニュアンスな集団行動に寄与することが示された。
- 参考スコア(独自算出の注目度): 12.987019067098414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Vision-Language Models (VLMs) hold promise for tasks requiring extensive collaboration, traditional multi-agent simulators have facilitated rich explorations of an interactive artificial society that reflects collective behavior. However, these existing simulators face significant limitations. Firstly, they struggle with handling large numbers of agents due to high resource demands. Secondly, they often assume agents possess perfect information and limitless capabilities, hindering the ecological validity of simulated social interactions. To bridge this gap, we propose a multi-agent Minecraft simulator, MineLand, that bridges this gap by introducing three key features: large-scale scalability, limited multimodal senses, and physical needs. Our simulator supports 64 or more agents. Agents have limited visual, auditory, and environmental awareness, forcing them to actively communicate and collaborate to fulfill physical needs like food and resources. Additionally, we further introduce an AI agent framework, Alex, inspired by multitasking theory, enabling agents to handle intricate coordination and scheduling. Our experiments demonstrate that the simulator, the corresponding benchmark, and the AI agent framework contribute to more ecological and nuanced collective behavior.The source code of MineLand and Alex is openly available at https://github.com/cocacola-lab/MineLand.
- Abstract(参考訳): VLM(Vision-Language Models)は、広範囲なコラボレーションを必要とするタスクを約束する一方で、従来のマルチエージェントシミュレータは、集団的な振る舞いを反映したインタラクティブな人工社会の豊富な探索を促進してきた。
しかし、これらの既存のシミュレータは重大な制限に直面している。
まず、高いリソース要求のために大量のエージェントを扱うのに苦労する。
第二に、彼らはエージェントが完全な情報と限界のない能力を持っていると仮定し、シミュレーションされた社会的相互作用の生態学的妥当性を妨げている。
このギャップを埋めるために、我々はMineLandというマルチエージェントMinecraftシミュレータを提案し、このギャップを埋めるために、大規模スケーラビリティ、限られたマルチモーダルセンス、物理的ニーズの3つの重要な特徴を導入する。
シミュレータは64以上のエージェントをサポートしています。
エージェントは視覚的、聴覚的、環境的な認識が限られており、食物や資源といった物理的な要求を満たすために積極的にコミュニケーションし協力することを余儀なくされている。
さらに、マルチタスク理論にインスパイアされたAIエージェントフレームワークであるAlexを導入し、エージェントが複雑な調整とスケジューリングを処理できるようにする。
我々の実験は、シミュレーター、対応するベンチマーク、AIエージェントフレームワークがより生態学的、ニュアンスのある集団行動に寄与していることを示し、MineLandとAlexのソースコードはhttps://github.com/cocacola-lab/MineLandで公開されています。
関連論文リスト
- Very Large-Scale Multi-Agent Simulation in AgentScope [115.83581238212611]
我々は,ユーザフレンドリーなマルチエージェントプラットフォームであるAgentScopeの新機能とコンポーネントを開発した。
高いスケーラビリティと高効率を実現するために,アクタをベースとした分散機構を提案する。
多数のエージェントを便利に監視し、管理するためのWebベースのインターフェースを提供する。
論文 参考訳(メタデータ) (2024-07-25T05:50:46Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z) - SocialGFs: Learning Social Gradient Fields for Multi-Agent Reinforcement Learning [58.84311336011451]
マルチエージェント強化学習のための新しい勾配に基づく状態表現を提案する。
オフラインサンプルからソーシャルグラデーションフィールド(SocialGF)を学習するために,デノジングスコアマッチングを採用している。
実際に、SocialGFをMAPPOなど、広く使われているマルチエージェント強化学習アルゴリズムに統合する。
論文 参考訳(メタデータ) (2024-05-03T04:12:19Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Exploring the Intersection of Large Language Models and Agent-Based
Modeling via Prompt Engineering [0.0]
大きな言語モデル(LLM)がこのボトルネックの潜在的な解決策として現れている。
本稿では,人間行動の予測可能なプロキシのシミュレーションを2つ提示する。
論文 参考訳(メタデータ) (2023-08-14T18:58:00Z) - Tachikuma: Understading Complex Interactions with Multi-Character and
Novel Objects by Large Language Models [67.20964015591262]
我々は,複数文字と新しいオブジェクトベースインタラクション推定タスクとサポートデータセットからなる,立久間というベンチマークを導入する。
このデータセットは、ゲームプレイ中のリアルタイム通信からログデータをキャプチャし、多様な、接地された複雑なインタラクションを提供して、さらなる探索を行う。
本稿では,対話理解の強化に有効であることを示すため,簡単なプロンプトベースラインを提案し,その性能評価を行う。
論文 参考訳(メタデータ) (2023-07-24T07:40:59Z) - Creating Multimodal Interactive Agents with Imitation and
Self-Supervised Learning [20.02604302565522]
SFからの一般的なビジョンは、ロボットはいつか私たちの物理的空間に住み、世界は私たちのように感じ、肉体労働を補助し、自然言語を通して私たちとコミュニケーションする、ということだ。
本稿では,仮想環境の単純化により人間と自然に対話できる人工エージェントを設計する方法について検討する。
シミュレーションされた世界における人間と人間の相互作用の模倣学習は、自己指導型学習と合わせて、多モーダルな対話型エージェントを作るのに十分であることを示す。
論文 参考訳(メタデータ) (2021-12-07T15:17:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。