論文の概要: MineLand: Simulating Large-Scale Multi-Agent Interactions with Limited Multimodal Senses and Physical Needs
- arxiv url: http://arxiv.org/abs/2403.19267v1
- Date: Thu, 28 Mar 2024 09:53:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 16:43:33.410576
- Title: MineLand: Simulating Large-Scale Multi-Agent Interactions with Limited Multimodal Senses and Physical Needs
- Title(参考訳): MineLand: 限られたマルチモーダルセンサと物理的ニーズによる大規模マルチエージェントインタラクションのシミュレーション
- Authors: Xianhao Yu, Jiaqi Fu, Renjia Deng, Wenjuan Han,
- Abstract要約: 我々は,限られたマルチモーダル感覚と物理的ニーズを導入することでギャップを埋めるマルチエージェントMinecraftシミュレータMineLandを提案する。
我々のシミュレーターは、最大48のエージェントをサポートし、視覚的、聴覚的、環境的な認識が限られており、食物や資源といった物理的なニーズを満たすために、積極的にコミュニケーションし、協力することを余儀なくされます。
実験により,シミュレータ,対応するベンチマーク,およびAIエージェントフレームワークが,より生態学的・ニュアンスな集団行動に寄与することが示された。
- 参考スコア(独自算出の注目度): 12.987019067098414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional multi-agent simulators often assume perfect information and limitless capabilities, hindering the ecological validity of social interactions. We propose a multi-agent Minecraft simulator, MineLand, that bridges this gap by introducing limited multimodal senses and physical needs. Our simulator supports up to 48 agents with limited visual, auditory, and environmental awareness, forcing them to actively communicate and collaborate to fulfill physical needs like food and resources. This fosters dynamic and valid multi-agent interactions. We further introduce an AI agent framework, Alex, inspired by multitasking theory, enabling agents to handle intricate coordination and scheduling. Our experiments demonstrate that the simulator, the corresponding benchmark, and the AI agent framework contribute to more ecological and nuanced collective behavior. The source code of MineLand and Alex is openly available at https://github.com/cocacola-lab/MineLand.
- Abstract(参考訳): 従来のマルチエージェントシミュレータは、完全な情報と限界のない能力を前提としており、社会的相互作用の生態学的妥当性を妨げている。
我々は,限られたマルチモーダル感覚と物理的ニーズを導入することで,このギャップを埋めるマルチエージェントMinecraftシミュレータMineLandを提案する。
我々のシミュレーターは、最大48のエージェントをサポートし、視覚的、聴覚的、環境的な認識が限られており、食物や資源といった物理的なニーズを満たすために、積極的にコミュニケーションし、協力することを余儀なくされます。
これは動的かつ有効なマルチエージェント相互作用を促進する。
さらに、マルチタスク理論にインスパイアされたAIエージェントフレームワークAlexを導入し、エージェントが複雑な調整とスケジューリングを処理できるようにする。
実験により,シミュレータ,対応するベンチマーク,およびAIエージェントフレームワークが,より生態学的・ニュアンスな集団行動に寄与することが示された。
MineLandとAlexのソースコードはhttps://github.com/cocacola-lab/MineLandで公開されている。
関連論文リスト
- Project Sid: Many-agent simulations toward AI civilization [1.623086795799085]
10から1000以上のAIエージェントがエージェント社会の中でどのように行動し、進歩するかを実証する。
まず,PIANOアーキテクチャを導入し,エージェントが人間や他のエージェントとリアルタイムで対話できるようにする。
次に,人史に触発された文明的ベンチマークを用いてエージェントシミュレーションにおけるエージェント性能を評価する。
論文 参考訳(メタデータ) (2024-10-31T18:11:22Z) - Synergistic Simulations: Multi-Agent Problem Solving with Large Language Models [36.571597246832326]
大規模言語モデル(LLM)は,マルチエージェントシステムの開発を容易にする能力の実証がますます進んでいる。
本稿では,エージェントとワールドインタラクションをひとつのシミュレーションに統合し,複数のエージェントが協調して問題解決を行う方法を提案する。
我々は,2人のルームメイトとエージェントが協調してプログラミング作業を行う物理スタジオアパートの2つのシミュレーションを実装した。
論文 参考訳(メタデータ) (2024-09-14T21:53:35Z) - Very Large-Scale Multi-Agent Simulation in AgentScope [112.98986800070581]
我々は,ユーザフレンドリーなマルチエージェントプラットフォームであるAgentScopeの新機能とコンポーネントを開発した。
高いスケーラビリティと高効率を実現するために,アクタをベースとした分散機構を提案する。
また、多数のエージェントを便利に監視し、管理するためのWebベースのインターフェースも提供します。
論文 参考訳(メタデータ) (2024-07-25T05:50:46Z) - Internet of Agents: Weaving a Web of Heterogeneous Agents for Collaborative Intelligence [79.5316642687565]
既存のマルチエージェントフレームワークは、多種多様なサードパーティエージェントの統合に苦慮することが多い。
我々はこれらの制限に対処する新しいフレームワークであるInternet of Agents (IoA)を提案する。
IoAはエージェント統合プロトコル、インスタントメッセージのようなアーキテクチャ設計、エージェントのチーム化と会話フロー制御のための動的メカニズムを導入している。
論文 参考訳(メタデータ) (2024-07-09T17:33:24Z) - SocialGFs: Learning Social Gradient Fields for Multi-Agent Reinforcement Learning [58.84311336011451]
マルチエージェント強化学習のための新しい勾配に基づく状態表現を提案する。
オフラインサンプルからソーシャルグラデーションフィールド(SocialGF)を学習するために,デノジングスコアマッチングを採用している。
実際に、SocialGFをMAPPOなど、広く使われているマルチエージェント強化学習アルゴリズムに統合する。
論文 参考訳(メタデータ) (2024-05-03T04:12:19Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Tachikuma: Understading Complex Interactions with Multi-Character and
Novel Objects by Large Language Models [67.20964015591262]
我々は,複数文字と新しいオブジェクトベースインタラクション推定タスクとサポートデータセットからなる,立久間というベンチマークを導入する。
このデータセットは、ゲームプレイ中のリアルタイム通信からログデータをキャプチャし、多様な、接地された複雑なインタラクションを提供して、さらなる探索を行う。
本稿では,対話理解の強化に有効であることを示すため,簡単なプロンプトベースラインを提案し,その性能評価を行う。
論文 参考訳(メタデータ) (2023-07-24T07:40:59Z) - Creating Multimodal Interactive Agents with Imitation and
Self-Supervised Learning [20.02604302565522]
SFからの一般的なビジョンは、ロボットはいつか私たちの物理的空間に住み、世界は私たちのように感じ、肉体労働を補助し、自然言語を通して私たちとコミュニケーションする、ということだ。
本稿では,仮想環境の単純化により人間と自然に対話できる人工エージェントを設計する方法について検討する。
シミュレーションされた世界における人間と人間の相互作用の模倣学習は、自己指導型学習と合わせて、多モーダルな対話型エージェントを作るのに十分であることを示す。
論文 参考訳(メタデータ) (2021-12-07T15:17:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。