論文の概要: MetaMind: General and Cognitive World Models in Multi-Agent Systems by Meta-Theory of Mind
- arxiv url: http://arxiv.org/abs/2603.00808v1
- Date: Sat, 28 Feb 2026 21:03:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.368497
- Title: MetaMind: General and Cognitive World Models in Multi-Agent Systems by Meta-Theory of Mind
- Title(参考訳): MetaMind: 心のメタ理論によるマルチエージェントシステムにおける汎用的・認知的世界モデル
- Authors: Lingyi Wang, Rashed Shelim, Walid Saad, Naren Ramakrishna,
- Abstract要約: マルチエージェントシステムにおける世界モデルにおける大きな課題は、相互依存エージェントのダイナミクスを理解し、インタラクティブなマルチエージェント軌道を予測し、集合的認識を伴う長い地平線を計画することである。
本稿では,マルチエージェントシステムのための汎用および認知的世界モデルであるMetaMindを提案する。
そこで,MetaMindは,マルチエージェントのマルチエージェント一般化において,タスク性能とベースラインの優れた性能を実現することができることを示す。
- 参考スコア(独自算出の注目度): 35.94964094173052
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A major challenge for world models in multi-agent systems is to understand interdependent agent dynamics, predict interactive multi-agent trajectories, and plan over long horizons with collective awareness, without centralized supervision or explicit communication. In this paper, MetaMind, a general and cognitive world model for multi-agent systems that leverages a novel meta-theory of mind (Meta-ToM) framework, is proposed. Through MetaMind, each agent learns not only to predict and plan over its own beliefs, but also to inversely reason goals and beliefs from its own behavior trajectories. This self-reflective, bidirectional inference loop enables each agent to learn a metacognitive ability in a self-supervised manner. Then, MetaMind is shown to generalize the metacognitive ability from first-person to third-person through analogical reasoning. Thus, in multi-agent systems, each agent with MetaMind can actively reason about goals and beliefs of other agents from limited, observable behavior trajectories in a zero-shot manner, and then adapt to emergent collective intention without an explicit communication mechanism. Extended simulation results on diverse multi-agent tasks demonstrate that MetaMind can achieve superior task performance and outperform baselines in few-shot multi-agent generalization.
- Abstract(参考訳): マルチエージェントシステムにおける世界モデルにおける大きな課題は、相互依存エージェントのダイナミクスを理解し、インタラクティブなマルチエージェント軌道を予測し、集中的な監督や明示的なコミュニケーションなしに、集合的な認識を伴う長い地平線を計画することである。
本稿では,メタマトリ・オブ・マインド(Meta-ToM)フレームワークを活用したマルチエージェントシステムのための汎用的・認知的世界モデルであるMetaMindを提案する。
MetaMindを通じて、各エージェントは自身の信念を予測し、計画するだけでなく、自身の行動軌跡から目的や信念を逆理することを学ぶ。
この自己反射的双方向推論ループにより、各エージェントは自己監督的な方法でメタ認知能力を学ぶことができる。
次に、メタミンドは、類似の推論により、一人称から第三者へのメタ認知能力を一般化する。
したがって、マルチエージェントシステムでは、MetaMindを持つ各エージェントは、制限された観測可能な行動軌跡から、他のエージェントの目標と信念をゼロショットで積極的に推論し、明示的なコミュニケーション機構を使わずに創発的な集団的意図に適応することができる。
多様なマルチエージェントタスクに対する拡張シミュレーションの結果、MetaMindは、マルチエージェントのマルチエージェント一般化において、優れたタスク性能と優れたベースラインを達成できることを示した。
関連論文リスト
- MARTI-MARS$^2$: Scaling Multi-Agent Self-Search via Reinforcement Learning for Code Generation [64.2621682259008]
セルフサーチスケーリングによるマルチエージェント強化トレーニングと推論フレームワーク(MARTI-MARS2)
本稿では,MARTI-MARS2を用いたマルチエージェント強化学習・推論フレームワークを提案する。
我々は、MARTI-MARS2が77.7%を獲得し、GPT-5.1のような強力なベースラインを、挑戦的なコード生成ベンチマークで上回っていることを示す。
論文 参考訳(メタデータ) (2026-02-08T07:28:44Z) - Agentic Reasoning for Large Language Models [122.81018455095999]
推論は推論、問題解決、意思決定の基礎となる基本的な認知プロセスである。
大規模言語モデル(LLM)は、クローズドワールド設定では強力な推論能力を示すが、オープンエンドおよび動的環境では苦労する。
エージェント推論は、連続的な相互作用を計画し、行動し、学習する自律的なエージェントとしてLLMを解釈することでパラダイムシフトを示す。
論文 参考訳(メタデータ) (2026-01-18T18:58:23Z) - Embedded Universal Predictive Intelligence: a coherent framework for multi-agent learning [57.23345786304694]
予測学習のための枠組みと自己予測を中心とした組込みエージェントを導入する。
マルチエージェント設定では、エージェントが類似したアルゴリズムを実行している他のエージェントについて推論することができる。
我々は、AIXIの理論を拡張し、Solomonoffから始まる普遍的なインテリジェントな埋め込みエージェントについて研究する。
論文 参考訳(メタデータ) (2025-11-27T08:46:48Z) - Theory of Mind Using Active Inference: A Framework for Multi-Agent Cooperation [4.033462754517733]
心の理論 (ToM) は、エージェントが自分の行動を計画しながら他人の信念を推論することを可能にする。
能動推論におけるToMの実装によるマルチエージェント協調への新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-08-01T08:02:35Z) - ReMA: Learning to Meta-think for LLMs with Multi-Agent Reinforcement Learning [53.817538122688944]
Reinforced Meta-thinking Agents (ReMA) を導入し,Large Language Models (LLMs) の推論からメタ思考行動を求める。
ReMAは、推論プロセスを2つの階層的なエージェントに分解する。戦略上の監視と計画を生成するハイレベルなメタ思考エージェントと、詳細な実行のための低レベルな推論エージェントである。
単ターン実験による実験結果から、ReMAは複雑な推論タスクにおいて単エージェントRLベースラインよりも優れることが示された。
論文 参考訳(メタデータ) (2025-03-12T16:05:31Z) - Metacognition is all you need? Using Introspection in Generative Agents
to Improve Goal-directed Behavior [0.0]
生成エージェントのメタ認知モジュールを導入し,それぞれの思考過程や行動の観察を可能にした。
生成因子がゾンビ黙示録を生き残らなければならない状況を含む,様々なシナリオでメタ認知モジュールを検証した。
論文 参考訳(メタデータ) (2024-01-09T15:00:47Z) - Theory of Mind as Intrinsic Motivation for Multi-Agent Reinforcement
Learning [5.314466196448188]
本稿では,深いネットワークによってモデル化された政策の中で意味論的・人間解釈的信念を基礎づける手法を提案する。
各エージェントが他のエージェントの信念を予測する能力は,マルチエージェント強化学習の本質的な報奨信号として利用できることを提案する。
論文 参考訳(メタデータ) (2023-07-03T17:07:18Z) - ToM2C: Target-oriented Multi-agent Communication and Cooperation with
Theory of Mind [18.85252946546942]
心の理論(Theory of Mind、ToM)は、効果的なコミュニケーションと協力が可能な社会的に知的なエージェントを構築する。
このアイデアは、協調ナビゲーションとマルチセンサーターゲットカバレッジという、2つの典型的な目標指向型マルチエージェントタスクで実証される。
論文 参考訳(メタデータ) (2021-10-15T18:29:55Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。