論文の概要: Embedded Universal Predictive Intelligence: a coherent framework for multi-agent learning
- arxiv url: http://arxiv.org/abs/2511.22226v1
- Date: Thu, 27 Nov 2025 08:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.460875
- Title: Embedded Universal Predictive Intelligence: a coherent framework for multi-agent learning
- Title(参考訳): 組込みユニバーサル予測知能:マルチエージェント学習のためのコヒーレントなフレームワーク
- Authors: Alexander Meulemans, Rajai Nasser, Maciej Wołczyk, Marissa A. Weis, Seijin Kobayashi, Blake Richards, Guillaume Lajoie, Angelika Steger, Marcus Hutter, James Manyika, Rif A. Saurous, João Sacramento, Blaise Agüera y Arcas,
- Abstract要約: 予測学習のための枠組みと自己予測を中心とした組込みエージェントを導入する。
マルチエージェント設定では、エージェントが類似したアルゴリズムを実行している他のエージェントについて推論することができる。
我々は、AIXIの理論を拡張し、Solomonoffから始まる普遍的なインテリジェントな埋め込みエージェントについて研究する。
- 参考スコア(独自算出の注目度): 57.23345786304694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The standard theory of model-free reinforcement learning assumes that the environment dynamics are stationary and that agents are decoupled from their environment, such that policies are treated as being separate from the world they inhabit. This leads to theoretical challenges in the multi-agent setting where the non-stationarity induced by the learning of other agents demands prospective learning based on prediction models. To accurately model other agents, an agent must account for the fact that those other agents are, in turn, forming beliefs about it to predict its future behavior, motivating agents to model themselves as part of the environment. Here, building upon foundational work on universal artificial intelligence (AIXI), we introduce a mathematical framework for prospective learning and embedded agency centered on self-prediction, where Bayesian RL agents predict both future perceptual inputs and their own actions, and must therefore resolve epistemic uncertainty about themselves as part of the universe they inhabit. We show that in multi-agent settings, self-prediction enables agents to reason about others running similar algorithms, leading to new game-theoretic solution concepts and novel forms of cooperation unattainable by classical decoupled agents. Moreover, we extend the theory of AIXI, and study universally intelligent embedded agents which start from a Solomonoff prior. We show that these idealized agents can form consistent mutual predictions and achieve infinite-order theory of mind, potentially setting a gold standard for embedded multi-agent learning.
- Abstract(参考訳): モデルフリー強化学習の標準理論は、環境力学が定常的であり、エージェントが彼らの環境から切り離され、政策が彼らが住む世界から切り離されていると仮定する。
これは、他のエージェントの学習によって誘導される非定常性が予測モデルに基づく予測学習を要求するマルチエージェント環境における理論的課題をもたらす。
他のエージェントを正確にモデル化するには、エージェントは他のエージェントが将来の振る舞いを予測するためにそのエージェントについての信念を形成しているという事実を考慮し、エージェントを環境の一部としてモデル化する動機付けが必要である。
ここでは、普遍人工知能(AIXI)の基礎研究に基づいて、予測学習のための数学的枠組みを導入し、ベイジアンRLエージェントが将来の知覚的入力と自身の行動の両方を予測し、それらが居住する宇宙の一部として、自分自身に対する認識的不確実性を解決する必要がある。
マルチエージェント環境では, エージェントが類似したアルゴリズムを実行している他のエージェントを推論し, ゲーム理論の新たな概念と, 従来の非結合エージェントが実現不可能な新しい協調形態を導出することを示す。
さらに、AIXIの理論を拡張し、Solomonoffから始まる普遍的なインテリジェントな組込みエージェントについて研究する。
これらの理想化されたエージェントは、一貫した相互予測を形成し、無限次心の理論を達成できることを示し、組込みマルチエージェント学習のゴールドスタンダードを設定できる可能性がある。
関連論文リスト
- Is the `Agent' Paradigm a Limiting Framework for Next-Generation Intelligent Systems? [0.0]
エージェント」の概念は人工知能(AI)の研究を深く形作っている。
本稿では,エージェント中心パラダイムの必要性と最適性を再評価する。
論文 参考訳(メタデータ) (2025-09-13T16:11:27Z) - EgoAgent: A Joint Predictive Agent Model in Egocentric Worlds [119.02266432167085]
EgoAgentは単一変換器内での表現、予測、動作を同時に学習する統合エージェントモデルである。
EgoAgentは、タスクをインターリーブされた状態とアクションのシーケンスとして定式化することで、これらの能力間の因果的および時間的依存関係を明示的にモデル化する。
EgoAgentの画像分類,エゴセントリックな将来の状態予測,3次元人間の動作予測といった代表的課題に対する総合的な評価は,本手法の優位性を示している。
論文 参考訳(メタデータ) (2025-02-09T11:28:57Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Theory of Mind as Intrinsic Motivation for Multi-Agent Reinforcement
Learning [5.314466196448188]
本稿では,深いネットワークによってモデル化された政策の中で意味論的・人間解釈的信念を基礎づける手法を提案する。
各エージェントが他のエージェントの信念を予測する能力は,マルチエージェント強化学習の本質的な報奨信号として利用できることを提案する。
論文 参考訳(メタデータ) (2023-07-03T17:07:18Z) - CAMMARL: Conformal Action Modeling in Multi Agent Reinforcement Learning [5.865719902445064]
本稿では,新しいマルチエージェント強化学習アルゴリズムCAMMARLを提案する。
それは、異なる状況における他のエージェントのアクションを、自信集合の形でモデル化することを含む。
本稿では,CAMMARLが共形予測セットをモデル化することにより,MARLにおける自律エージェントの能力を高めることを示す。
論文 参考訳(メタデータ) (2023-06-19T19:03:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。