論文の概要: A Mathematical Theory of Agency and Intelligence
- arxiv url: http://arxiv.org/abs/2602.22519v1
- Date: Thu, 26 Feb 2026 01:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.466769
- Title: A Mathematical Theory of Agency and Intelligence
- Title(参考訳): エージェントとインテリジェンスに関する数学的理論
- Authors: Wael Hafez, Chenan Wei, Rodrigo Felipe, Amir Nazeri, Cameron Reid,
- Abstract要約: システムがデプロイする総情報のどれ程が、その観察、行動、結果の間で実際に共有されているかを示す。
この共有分数、つまり分岐予測可能性 P は、第一原理から導かれるあらゆる相互作用に固有のものであることを証明します。
我々は、Pをリアルタイムで監視し、適応的でレジリエントなAIの前提条件を確立するフィードバックアーキテクチャを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To operate reliably under changing conditions, complex systems require feedback on how effectively they use resources, not just whether objectives are met. Current AI systems process vast information to produce sophisticated predictions, yet predictions can appear successful while the underlying interaction with the environment degrades. What is missing is a principled measure of how much of the total information a system deploys is actually shared between its observations, actions, and outcomes. We prove this shared fraction, which we term bipredictability, P, is intrinsic to any interaction, derivable from first principles, and strictly bounded: P can reach unity in quantum systems, P equal to, or smaller than 0.5 in classical systems, and lower once agency (action selection) is introduced. We confirm these bounds in a physical system (double pendulum), reinforcement learning agents, and multi turn LLM conversations. These results distinguish agency from intelligence: agency is the capacity to act on predictions, whereas intelligence additionally requires learning from interaction, self-monitoring of its learning effectiveness, and adapting the scope of observations, actions, and outcomes to restore effective learning. By this definition, current AI systems achieve agency but not intelligence. Inspired by thalamocortical regulation in biological systems, we demonstrate a feedback architecture that monitors P in real time, establishing a prerequisite for adaptive, resilient AI.
- Abstract(参考訳): 変化する条件下で確実に運用するには、複雑なシステムは、目的が満たされているかどうかだけでなく、リソースの有効利用に関するフィードバックを必要とする。
現在のAIシステムは、膨大な情報を処理して高度な予測を生成するが、環境との基本的な相互作用が劣化している間に、予測が成功する可能性がある。
欠けているのは、システムがデプロイする全情報のどれだけが、その観察、アクション、結果の間で実際に共有されているか、という原則的な尺度です。
P は量子系においてユニティに到達し、P は古典系では0.5 に等しいか小さいか、そして 1 次エージェンシー(行動選択)が導入された。
我々はこれらの境界を物理的システム(二重振り子)、強化学習エージェント、マルチターンLDM会話で確認する。
これらの結果は、エージェンシーとインテリジェンスを区別する: エージェンシーは予測に行動する能力であり、一方でインテリジェンスは、相互作用からの学習、学習の有効性の自己監視、そして効果的な学習を回復するために観察、行動、成果の範囲に適応することを要求する。
この定義により、現在のAIシステムは、エージェンシーは達成するが、インテリジェンスではない。
生体系における視床皮質制御に触発されて、Pをリアルタイムで監視するフィードバックアーキテクチャを実証し、適応的でレジリエントなAIの前提条件を確立する。
関連論文リスト
- Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Knowledge Conceptualization Impacts RAG Efficacy [0.0786430477112975]
本稿では,伝達可能な,解釈可能なニューロシンボリックAIシステムの設計について検討する。
具体的には、'Agentic Retrieval-Augmented Generation'システムと呼ばれるシステムのクラスに焦点を当てる。
論文 参考訳(メタデータ) (2025-07-12T20:10:26Z) - Intelligence at the Edge of Chaos [24.864145150537855]
ルールベースのシステムの複雑さが、これらのルールを予測するために訓練されたモデルの能力にどのように影響するかを検討する。
以上の結果から,複雑性の高いルールは,より優れたインテリジェンスを示すモデルにつながることが判明した。
我々は、知性は複雑さを予測する能力から生じ、知性を生み出すには複雑さにのみ暴露する必要があると推測する。
論文 参考訳(メタデータ) (2024-10-03T14:42:34Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。