論文の概要: Dual Computational Horizons: Incompleteness and Unpredictability in Intelligent Systems
- arxiv url: http://arxiv.org/abs/2512.16707v1
- Date: Thu, 18 Dec 2025 16:12:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.149819
- Title: Dual Computational Horizons: Incompleteness and Unpredictability in Intelligent Systems
- Title(参考訳): Dual Computational Horizons:Intelligent Systemsにおける不完全性と予測不可能性
- Authors: Abhisek Ganguly,
- Abstract要約: 特に、アルゴリズムエージェントは、一般に自身の最大予測地平線を計算できない。
この観点は、インテリジェントシステムにおける推論、予測、自己分析の間の本質的にのトレードオフを明らかにします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We formalize two independent computational limitations that constrain algorithmic intelligence: formal incompleteness and dynamical unpredictability. The former limits the deductive power of consistent reasoning systems while the later bounds long-term prediction under finite precision. We show that these two extrema together impose structural bounds on an agent's ability to reason about its own predictive capabilities. In particular, an algorithmic agent cannot compute its own maximal prediction horizon generally. This perspective clarifies inherent trade-offs between reasoning, prediction, and self-analysis in intelligent systems.
- Abstract(参考訳): 我々は、アルゴリズム知性を制約する2つの独立した計算制限、形式的不完全性と動的予測不可能を定式化する。
前者は一貫した推論システムの誘引力を制限する一方、後者は有限の精度で長期予測を行う。
これら2つのエクストリームは、エージェントが自身の予測能力について推論する能力に構造的境界を課していることを示す。
特に、アルゴリズムエージェントは、一般に自身の最大予測地平線を計算できない。
この観点は、インテリジェントシステムにおける推論、予測、自己分析の間の本質的にのトレードオフを明らかにします。
関連論文リスト
- Extending the Entropic Potential of Events for Uncertainty Quantification and Decision-Making in Artificial Intelligence [0.0]
事象のエントロピーポテンシャルは、システムの将来のエントロピーに対する離散事象の影響を定量化するパラメータである。
このフレームワークは、アクション、観察、その他の離散的な事象が将来の時間的地平線における不確実性にどのように影響するかをキャプチャするイベント中心の指標を導入することで、AIに適応する。
ポリシー評価、本質的な報酬設計、説明可能なAI、異常検出に応用が検討されている。
論文 参考訳(メタデータ) (2025-08-13T23:52:12Z) - Aggregating Concepts of Fairness and Accuracy in Prediction Algorithms [0.0]
精度と公平度を線形に組み合わせて、予測アルゴリズムの全てを考慮に入れた値を測定するには、十分な理由がある、と私は論じる。
AngwinらによってコンパイルされたCompASデータセットを用いて、精度・公正トレードオフの分析に私の結果を適用します。
論文 参考訳(メタデータ) (2025-05-13T01:00:25Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Probabilistic computation and uncertainty quantification with emerging
covariance [11.79594512851008]
堅牢で解釈可能なセキュアなAIシステムを構築するには、確率論的視点の下で不確実性を定量化し、表現する必要がある。
確率計算は、ほとんどの従来の人工ニューラルネットワークにとって重要な課題である。
論文 参考訳(メタデータ) (2023-05-30T17:55:29Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Neuro-Symbolic Entropy Regularization [78.16196949641079]
構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
論文 参考訳(メタデータ) (2022-01-25T06:23:10Z) - Abstract Spatial-Temporal Reasoning via Probabilistic Abduction and
Execution [97.50813120600026]
時空間推論は人工知能(AI)の課題である
最近の研究は、この種の抽象的推論タスクに焦点を当てている -- Raven's Progressive Matrices (RPM)
ニューロシンボリックな確率的アブダクションと実行学習者(PrAE)を提案する。
論文 参考訳(メタデータ) (2021-03-26T02:42:18Z) - General stochastic separation theorems with optimal bounds [68.8204255655161]
分離性の現象が明らかになり、機械学習で人工知能(AI)システムのエラーを修正し、AI不安定性を分析するために使用された。
エラーやエラーのクラスタは、残りのデータから分離することができる。
AIシステムを修正する能力は、それに対する攻撃の可能性も開き、高次元性は、同じ分離性によって引き起こされる脆弱性を誘発する。
論文 参考訳(メタデータ) (2020-10-11T13:12:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。