論文の概要: Universal AI maximizes Variational Empowerment
- arxiv url: http://arxiv.org/abs/2502.15820v1
- Date: Thu, 20 Feb 2025 02:58:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 22:36:55.80012
- Title: Universal AI maximizes Variational Empowerment
- Title(参考訳): 変分エンパワーメントを最大化するUniversal AI
- Authors: Yusuke Hayashi, Koichi Takahashi,
- Abstract要約: 我々は、ユニバーサルAIエージェントのパワーサーキング傾向は、エンパワーメントの直接的な結果として説明できると論じる。
私たちの主な貢献は、これらのモチベーションがAIエージェントを体系的に高オプション状態を探し、維持する方法を示すことです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a theoretical framework unifying AIXI -- a model of universal AI -- with variational empowerment as an intrinsic drive for exploration. We build on the existing framework of Self-AIXI -- a universal learning agent that predicts its own actions -- by showing how one of its established terms can be interpreted as a variational empowerment objective. We further demonstrate that universal AI's planning process can be cast as minimizing expected variational free energy (the core principle of active Inference), thereby revealing how universal AI agents inherently balance goal-directed behavior with uncertainty reduction curiosity). Moreover, we argue that power-seeking tendencies of universal AI agents can be explained not only as an instrumental strategy to secure future reward, but also as a direct consequence of empowerment maximization -- i.e.\ the agent's intrinsic drive to maintain or expand its own controllability in uncertain environments. Our main contribution is to show how these intrinsic motivations (empowerment, curiosity) systematically lead universal AI agents to seek and sustain high-optionality states. We prove that Self-AIXI asymptotically converges to the same performance as AIXI under suitable conditions, and highlight that its power-seeking behavior emerges naturally from both reward maximization and curiosity-driven exploration. Since AIXI can be view as a Bayes-optimal mathematical formulation for Artificial General Intelligence (AGI), our result can be useful for further discussion on AI safety and the controllability of AGI.
- Abstract(参考訳): 本稿では,AIのモデルであるAIIXIを統合化するための理論的枠組みを提案する。
我々は、自己学習エージェントであるSelf-AIXIの既存のフレームワークの上に構築し、その確立された用語の1つが変分エンパワーメントの目的としてどのように解釈できるかを示す。
さらに、ユニバーサルAIの計画プロセスは、期待される変動自由エネルギー(能動推論の中核原理)を最小化することで、普遍AIエージェントが本質的にゴール指向の行動と不確実性低減好奇心とのバランスをとる方法を明らかにすることができる。
さらに、ユニバーサルAIエージェントのパワーサーキング傾向は、将来の報酬を確保するための手段戦略としてだけでなく、エージェントが不確実な環境で自身のコントロール性を維持または拡張する本質的な推進力であるエンパワーメント最大化の直接的な結果として説明できる、と論じる。
私たちの主な貢献は、これらの本質的なモチベーション(エンパワーメント、好奇心)が、AIエージェントを体系的に高オプション状態を探し、維持する方法を示すことです。
我々は,自己AIXIが適切な条件下でAIXIと同じ性能に漸近的に収束していることを示し,そのパワー探索行動が報奨最大化と好奇心による探索の両方から自然に現れることを強調した。
AIXIは、人工知能(AGI)のベイズ最適数学的定式化(Bayes-Optimal mathematical formulation)とみなすことができるため、AIの安全性とAGIの制御性に関するさらなる議論に役立てることができる。
関連論文リスト
- NGENT: Next-Generation AI Agents Must Integrate Multi-Domain Abilities to Achieve Artificial General Intelligence [15.830291699780874]
我々は、次世代AIエージェント(NGENT)が、人工知能(AGI)に進むために、ドメイン間の能力を統合するべきだと論じている。
将来のAIエージェントは、これらの特殊システムの強みを、テキスト、ビジョン、ロボット工学、強化学習、感情知性などにわたって操作できる統一されたフレームワークに合成するべきである。
論文 参考訳(メタデータ) (2025-04-30T08:46:14Z) - Stochastic, Dynamic, Fluid Autonomy in Agentic AI: Implications for Authorship, Inventorship, and Liability [0.2209921757303168]
エージェントAIシステムは、暗黙の学習を通じて戦略を適応し、自律的に目標を追求する。
人間と機械の貢献は、相互に絡み合った創造的なプロセスに不可避的に絡まってしまう。
法律と政策の枠組みは、人間と機械の貢献を機能的に同等に扱う必要があるかもしれないと我々は主張する。
論文 参考訳(メタデータ) (2025-04-05T04:44:59Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Agentic AI Needs a Systems Theory [46.36636351388794]
AI開発は現在、個々のモデル機能に過度に重点を置いている、と私たちは主張する。
エージェント認知の強化,創発的因果推論能力,メタ認知認知のメカニズムについて概説する。
システムレベルの視点は、より理解し、意図的に形作り、エージェントAIシステムに不可欠である、と私たちは強調する。
論文 参考訳(メタデータ) (2025-02-28T22:51:32Z) - Common Sense Is All You Need [5.280511830552275]
人工知能(AI)は近年大きな進歩を遂げているが、すべての動物に存在する認知の基本的な側面(常識)に悩まされ続けている。
現在のAIシステムは、広範囲の事前知識を必要とせずに、新しい状況に適応する能力に欠けることが多い。
この原稿は、AIシステムに常識を統合することは、真の自律性を達成し、AIの完全な社会的および商業的価値を解放するために不可欠である、と論じている。
論文 参考訳(メタデータ) (2025-01-11T21:23:41Z) - Augmenting Minds or Automating Skills: The Differential Role of Human Capital in Generative AI's Impact on Creative Tasks [4.39919134458872]
ジェネレーティブAIは、創造的な仕事を急速に作り直し、その受益者や社会的意味について批判的な疑問を提起している。
この研究は、創造的タスクにおいて、生成的AIが様々な形態の人的資本とどのように相互作用するかを探求することによって、一般的な仮定に挑戦する。
AIはクリエイティブツールへのアクセスを民主化するが、同時に認知的不平等を増幅する。
論文 参考訳(メタデータ) (2024-12-05T08:27:14Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - A call for embodied AI [1.7544885995294304]
我々は、人工知能の次の基本ステップとして、エンボディードAIを提案する。
Embodied AIの範囲を広げることで、認知アーキテクチャに基づく理論的枠組みを導入する。
このフレームワークはFristonのアクティブな推論原則と一致しており、EAI開発に対する包括的なアプローチを提供する。
論文 参考訳(メタデータ) (2024-02-06T09:11:20Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。