論文の概要: Embodied AI Agents: Modeling the World
- arxiv url: http://arxiv.org/abs/2506.22355v1
- Date: Fri, 27 Jun 2025 16:05:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.278477
- Title: Embodied AI Agents: Modeling the World
- Title(参考訳): Embodied AI Agents: 世界モデリング
- Authors: Pascale Fung, Yoram Bachrach, Asli Celikyilmaz, Kamalika Chaudhuri, Delong Chen, Willy Chung, Emmanuel Dupoux, Hervé Jégou, Alessandro Lazaric, Arjun Majumdar, Andrea Madotto, Franziska Meier, Florian Metze, Théo Moutakanni, Juan Pino, Basile Terver, Joseph Tighe, Jitendra Malik,
- Abstract要約: 本稿では,視覚的,仮想的,物理的形態を具現化したAIエージェントの研究について述べる。
我々は,世界モデルの開発が,具体的AIエージェントの推論と計画の中心であることを提案する。
また,より優れた人間とエージェントのコラボレーションを実現するために,ユーザのメンタルワールドモデルを学ぶことを提案する。
- 参考スコア(独自算出の注目度): 165.00906999909716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our research on AI agents embodied in visual, virtual or physical forms, enabling them to interact with both users and their environments. These agents, which include virtual avatars, wearable devices, and robots, are designed to perceive, learn and act within their surroundings, which makes them more similar to how humans learn and interact with the environments as compared to disembodied agents. We propose that the development of world models is central to reasoning and planning of embodied AI agents, allowing these agents to understand and predict their environment, to understand user intentions and social contexts, thereby enhancing their ability to perform complex tasks autonomously. World modeling encompasses the integration of multimodal perception, planning through reasoning for action and control, and memory to create a comprehensive understanding of the physical world. Beyond the physical world, we also propose to learn the mental world model of users to enable better human-agent collaboration.
- Abstract(参考訳): 本稿では,視覚的,仮想的,物理的形態を具現化したAIエージェントの研究について述べる。
これらのエージェントには、仮想アバター、ウェアラブルデバイス、ロボットが含まれており、周囲を知覚し、学習し、行動するように設計されている。
我々は,世界モデルの開発が,具体的AIエージェントの推論と計画の中心であり,これらのエージェントが環境を理解し,予測し,ユーザの意図や社会的状況を理解し,複雑なタスクを自律的に遂行する能力を向上させることを提案する。
世界モデリングは、多モーダルな知覚の統合、行動と制御の推論による計画、そして物理的な世界に対する包括的な理解を生み出すための記憶を含む。
物理的な世界を超えて、私たちは、より良い人間とエージェントのコラボレーションを可能にするために、ユーザのメンタルワールドモデルを学ぶことを提案する。
関連論文リスト
- Autonomous Embodied Agents: When Robotics Meets Deep Learning Reasoning [0.9790236766474201]
この論文は、室内環境におけるエンボディ化剤の完全な生成プロセスに続くものである。
我々は、この分野での今後の研究を促進するために、エンボディードAIと自律エージェントの研究に貢献することを目指している。
論文 参考訳(メタデータ) (2025-05-02T00:43:28Z) - V-IRL: Grounding Virtual Intelligence in Real Life [65.87750250364411]
V-IRLは、エージェントが仮想的で現実的な環境で現実世界と対話することを可能にするプラットフォームである。
私たちのプラットフォームは、様々な実践的なタスクを達成できるエージェントを開発するための遊び場として役立ちます。
論文 参考訳(メタデータ) (2024-02-05T18:59:36Z) - On the Emergence of Symmetrical Reality [51.21203247240322]
物理仮想アマルガメーションの様々な形態を包含した統一表現を提供する対称現実感フレームワークを導入する。
我々は、対称現実の潜在的な応用を示すAI駆動型アクティブアシストサービスの例を提案する。
論文 参考訳(メタデータ) (2024-01-26T16:09:39Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。