論文の概要: A Visualized Framework for Event Cooperation with Generative Agents
- arxiv url: http://arxiv.org/abs/2509.13011v1
- Date: Tue, 16 Sep 2025 12:33:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.077784
- Title: A Visualized Framework for Event Cooperation with Generative Agents
- Title(参考訳): 生成エージェントとのイベント協調のための可視化フレームワーク
- Authors: Yuyang Tian, Shunqiang Mao, Wenchang Gao, Lanlan Qiu, Tianxing He,
- Abstract要約: 環境をカスタマイズするための直感的な地図エディタと,スムーズなアニメーションを備えたシミュレーションプレーヤを備えた可視化プラットフォームであるMiniAgentProを開発した。
エージェントの能力を評価するために,基本的およびハードなバリエーションを備えた8つのイベントシナリオからなる総合的なテストセットを導入する。
GPT-4oによる評価は、基本的な設定では高い性能を示すが、ハードバリアントではコーディネーションの課題が強調される。
- 参考スコア(独自算出の注目度): 7.836498142901952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have revolutionized the simulation of agent societies, enabling autonomous planning, memory formation, and social interactions. However, existing frameworks often overlook systematic evaluations for event organization and lack visualized integration with physically grounded environments, limiting agents' ability to navigate spaces and interact with items realistically. We develop MiniAgentPro, a visualization platform featuring an intuitive map editor for customizing environments and a simulation player with smooth animations. Based on this tool, we introduce a comprehensive test set comprising eight diverse event scenarios with basic and hard variants to assess agents' ability. Evaluations using GPT-4o demonstrate strong performance in basic settings but highlight coordination challenges in hard variants.
- Abstract(参考訳): 大規模言語モデル(LLM)はエージェント社会のシミュレーションに革命をもたらし、自律的な計画、記憶形成、社会的相互作用を可能にした。
しかし、既存のフレームワークは多くの場合、イベント組織に対する体系的な評価を見落とし、物理的に接地された環境との可視化された統合を欠き、エージェントが空間をナビゲートし、現実的にアイテムと対話する能力を制限している。
環境をカスタマイズするための直感的な地図エディタと,スムーズなアニメーションを備えたシミュレーションプレーヤを備えた可視化プラットフォームであるMiniAgentProを開発した。
本ツールに基づいて,エージェントの能力を評価するため,基本および難易度のある8つのイベントシナリオからなる総合的なテストセットを導入する。
GPT-4oによる評価は、基本的な設定では高い性能を示すが、ハードバリアントではコーディネーションの課題が強調される。
関連論文リスト
- Genie Envisioner: A Unified World Foundation Platform for Robotic Manipulation [65.30763239365928]
我々は,ロボット操作のための統一世界基盤プラットフォームであるGenie Envisioner(GE)を紹介する。
GEは、ポリシー学習、評価、シミュレーションを単一のビデオ生成フレームワークに統合する。
論文 参考訳(メタデータ) (2025-08-07T17:59:44Z) - SIMS: Simulating Stylized Human-Scene Interactions with Retrieval-Augmented Script Generation [38.96874874208242]
我々は,ハイレベルなスクリプト駆動の意図を低レベルな制御ポリシーでシームレスにブリッジするSIMSという新しい階層型フレームワークを導入する。
具体的には,Large Language Models with Retrieval-Augmented Generationを用いて,一貫性のある多種多様な長文スクリプトを生成する。
生成したスクリプトからテキストを埋め込み、スタイリスティックな手順をエンコードする多用途多条件物理ベースの制御ポリシーも開発されている。
論文 参考訳(メタデータ) (2024-11-29T18:36:15Z) - Flex: End-to-End Text-Instructed Visual Navigation from Foundation Model Features [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly lexically) で合成され, 凍結パッチワイド特徴抽出器として, 事前学習された視覚言語モデル (VLM) を用いたフレームワークである。
本研究では,本手法の有効性を,行動クローンによる訓練を実世界のシーンに応用した,四重項フライ・トゥ・ターゲットタスクに適用した。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - Closed Loop Interactive Embodied Reasoning for Robot Manipulation [17.732550906162192]
身体的推論システムは、ロボットハードウェアと認知プロセスを統合して複雑なタスクを実行する。
そこで我々は,CLIER(Closed Loop Interactive Embodied Reasoning)アプローチを導入した。
CLIERは、非視覚的物体の特性の測定、外乱によるシーンの変化、そしてロボット行動の不確実な結果を考慮している。
論文 参考訳(メタデータ) (2024-04-23T16:33:28Z) - MEIA: Multimodal Embodied Perception and Interaction in Unknown Environments [82.67236400004826]
本稿では,自然言語で表現されたハイレベルなタスクを実行可能なアクションのシーケンスに変換するための,MEIA(Multimodal Embodied Interactive Agent)を提案する。
MEMモジュールは、多様な要件とロボットの能力に基づいて、MEIAが実行可能なアクションプランを生成することを可能にする。
論文 参考訳(メタデータ) (2024-02-01T02:43:20Z) - LLMR: Real-time Prompting of Interactive Worlds using Large Language Models [45.87888748442536]
Large Language Model for Mixed Reality (LLMR)は、インタラクティブなMixed Reality体験のリアルタイム作成と修正のためのフレームワークである。
私たちのフレームワークはテキストインタラクションとUnityゲームエンジンに依存しています。
LLMRは標準のGPT-4を平均誤差率で4倍に上回る。
論文 参考訳(メタデータ) (2023-09-21T17:37:01Z) - Orbit: A Unified Simulation Framework for Interactive Robot Learning
Environments [38.23943905182543]
NVIDIA Isaac Simによるロボット学習のための統一的でモジュール化されたフレームワークOrbitを紹介する。
写真リアリスティックなシーンと高忠実度剛性で変形可能なボディシミュレーションを備えたロボット環境を構築するためのモジュラーデザインを提供する。
我々は,表現学習,強化学習,模倣学習,タスク・アンド・モーション・プランニングなど,さまざまな研究領域を支援することを目的としている。
論文 参考訳(メタデータ) (2023-01-10T20:19:17Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。