論文の概要: The World Is Bigger! A Computationally-Embedded Perspective on the Big World Hypothesis
- arxiv url: http://arxiv.org/abs/2512.23419v1
- Date: Mon, 29 Dec 2025 12:31:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.491735
- Title: The World Is Bigger! A Computationally-Embedded Perspective on the Big World Hypothesis
- Title(参考訳): 世界はもっと大きい! 計算による世界仮説の展望
- Authors: Alex Lewandowski, Adtiya A. Ramesh, Edan Meyer, Dale Schuurmans, Marlos C. Machado,
- Abstract要約: 本稿では,エージェントが環境に埋め込まれることによって,その能力に関わらず,エージェントが制約を受けるような問題設定について述べる。
本稿では,エージェントが新たな予測を学習し,その行動に継続的に適応する能力を測定する,対話性(interactiveivity)と呼ばれるこの設定の目的を提案する。
その結果, 深い非線形ネットワークは相互作用性を維持するのに苦戦しているのに対し, 深い線形ネットワークはキャパシティの増加とともに高い相互作用性を維持することがわかった。
- 参考スコア(独自算出の注目度): 40.015199580592174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual learning is often motivated by the idea, known as the big world hypothesis, that "the world is bigger" than the agent. Recent problem formulations capture this idea by explicitly constraining an agent relative to the environment. These constraints lead to solutions in which the agent continually adapts to best use its limited capacity, rather than converging to a fixed solution. However, explicit constraints can be ad hoc, difficult to incorporate, and may limit the effectiveness of scaling up the agent's capacity. In this paper, we characterize a problem setting in which an agent, regardless of its capacity, is constrained by being embedded in the environment. In particular, we introduce a computationally-embedded perspective that represents an embedded agent as an automaton simulated within a universal (formal) computer. Such an automaton is always constrained; we prove that it is equivalent to an agent that interacts with a partially observable Markov decision process over a countably infinite state-space. We propose an objective for this setting, which we call interactivity, that measures an agent's ability to continually adapt its behaviour by learning new predictions. We then develop a model-based reinforcement learning algorithm for interactivity-seeking, and use it to construct a synthetic problem to evaluate continual learning capability. Our results show that deep nonlinear networks struggle to sustain interactivity, whereas deep linear networks sustain higher interactivity as capacity increases.
- Abstract(参考訳): 連続的な学習は、しばしば「世界はエージェントよりも大きい」という「ビッグワールド仮説」と呼ばれるアイデアによって動機付けられている。
最近の問題定式化は、環境に対するエージェントを明示的に制限することで、このアイデアを捉えている。
これらの制約は、エージェントが固定された解に収束するのではなく、その限られた容量を最大限に利用するために継続的に適応する解につながる。
しかし、明示的な制約はアドホックであり、組み込むのが難しく、エージェントの容量を拡大する効果を制限する可能性がある。
本稿では,エージェントが環境に埋め込まれることによって,その能力に関わらず,エージェントが制約を受けるような問題設定を特徴付ける。
特に,組込みエージェントを汎用(形式)コンピュータ内でシミュレートしたオートマトンとして表現する計算組込みの視点を導入する。
このようなオートマトンは常に制約され、無限大の状態空間上の部分的に観測可能なマルコフ決定過程と相互作用するエージェントと等価であることが証明される。
本稿では,エージェントが新たな予測を学習し,その行動に継続的に適応する能力を測定する,対話性(interactiveivity)と呼ばれるこの設定の目的を提案する。
次に,対話性探索のためのモデルベース強化学習アルゴリズムを開発し,連続学習能力を評価するための合成問題を構築する。
その結果, 深い非線形ネットワークは相互作用性を維持するのに苦戦しているのに対し, 深い線形ネットワークはキャパシティの増加とともに高い相互作用性を維持することがわかった。
関連論文リスト
- Embedded Universal Predictive Intelligence: a coherent framework for multi-agent learning [57.23345786304694]
予測学習のための枠組みと自己予測を中心とした組込みエージェントを導入する。
マルチエージェント設定では、エージェントが類似したアルゴリズムを実行している他のエージェントについて推論することができる。
我々は、AIXIの理論を拡張し、Solomonoffから始まる普遍的なインテリジェントな埋め込みエージェントについて研究する。
論文 参考訳(メタデータ) (2025-11-27T08:46:48Z) - Adaptive and Resource-efficient Agentic AI Systems for Mobile and Embedded Devices: A Survey [11.537225726120495]
ファンデーションモデルは、断片化されたアーキテクチャをマルチモーダル推論とコンテキスト適応を備えたスケーラブルなバックボーンに統一することで、AIを再構築した。
FMを認知のコアとして、エージェントは自律性、一般化、自己回帰を達成するためにルールベースの振る舞いを超越する。
この調査は、適応的でリソース効率の良いエージェントAIシステムの、最初の体系的な特徴を提供する。
論文 参考訳(メタデータ) (2025-09-30T02:37:52Z) - Computational Irreducibility as the Foundation of Agency: A Formal Model Connecting Undecidability to Autonomous Behavior in Complex Systems [0.0]
我々は正確な数学的つながりを確立し 真に自律的なシステムに対して その将来の行動に関する疑問は 基本的に決定不可能であることを証明します
この発見は、人工知能、生物学的モデリング、そして自由意志のような哲学的概念に重大な影響を及ぼす。
論文 参考訳(メタデータ) (2025-05-05T21:24:50Z) - Principal-Agent Reinforcement Learning: Orchestrating AI Agents with Contracts [20.8288955218712]
本稿では,マルコフ決定プロセス(MDP)のエージェントを一連の契約でガイドするフレームワークを提案する。
我々は,主観とエージェントの方針を反復的に最適化するメタアルゴリズムを提示し,分析する。
次に,本アルゴリズムを深層Q-ラーニングで拡張し,近似誤差の存在下での収束度を解析する。
論文 参考訳(メタデータ) (2024-07-25T14:28:58Z) - Scaling Large Language Model-based Multi-Agent Collaboration [72.8998796426346]
近年の大規模言語モデル駆動型自律エージェントのブレークスルーにより、複数エージェントのコラボレーションが集団的推論を通じて各個人を上回ることが判明している。
本研究は、協調剤の連続的な添加が同様の利益をもたらすかどうかを考察する。
論文 参考訳(メタデータ) (2024-06-11T11:02:04Z) - Sim-to-Real Causal Transfer: A Metric Learning Approach to Causally-Aware Interaction Representations [58.96953392466609]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
本稿では,因果アノテーションを用いて潜在表現を規則化するメトリクス学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Ubiquitous Distributed Deep Reinforcement Learning at the Edge:
Analyzing Byzantine Agents in Discrete Action Spaces [0.06554326244334865]
本稿では,ビザンチンや誤作動剤の存在下で発生する多エージェント分散深層強化学習の課題について論じる。
個別行動の誤りが協調学習活動にどのように影響するかを示す。
分散マルチエージェントトレーニングにおけるアクター・クリティカル(A2C)を活かしたAtariテストベッドを用いたシミュレーション環境で実験を行った。
論文 参考訳(メタデータ) (2020-08-18T11:25:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。