論文の概要: Extending the Entropic Potential of Events for Uncertainty Quantification and Decision-Making in Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2508.10241v1
- Date: Wed, 13 Aug 2025 23:52:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.139057
- Title: Extending the Entropic Potential of Events for Uncertainty Quantification and Decision-Making in Artificial Intelligence
- Title(参考訳): 人工知能における不確かさの定量化と意思決定のための事象のエントロピーポテンシャルの拡張
- Authors: Mark Zilberman,
- Abstract要約: 事象のエントロピーポテンシャルは、システムの将来のエントロピーに対する離散事象の影響を定量化するパラメータである。
このフレームワークは、アクション、観察、その他の離散的な事象が将来の時間的地平線における不確実性にどのように影響するかをキャプチャするイベント中心の指標を導入することで、AIに適応する。
ポリシー評価、本質的な報酬設計、説明可能なAI、異常検出に応用が検討されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work demonstrates how the concept of the entropic potential of events -- a parameter quantifying the influence of discrete events on the expected future entropy of a system -- can enhance uncertainty quantification, decision-making, and interpretability in artificial intelligence (AI). Building on its original formulation in physics, the framework is adapted for AI by introducing an event-centric measure that captures how actions, observations, or other discrete occurrences impact uncertainty at future time horizons. Both the original and AI-adjusted definitions of entropic potential are formalized, with the latter emphasizing conditional expectations to account for counterfactual scenarios. Applications are explored in policy evaluation, intrinsic reward design, explainable AI, and anomaly detection, highlighting the metric's potential to unify and strengthen uncertainty modeling in intelligent systems. Conceptual examples illustrate its use in reinforcement learning, Bayesian inference, and anomaly detection, while practical considerations for computation in complex AI models are discussed. The entropic potential framework offers a theoretically grounded, interpretable, and versatile approach to managing uncertainty in AI, bridging principles from thermodynamics, information theory, and machine learning.
- Abstract(参考訳): この研究は、事象のエントロピーポテンシャルの概念(システムの将来のエントロピーに対する離散事象の影響を定量化するパラメータ)が、人工知能(AI)における不確実性定量化、意思決定、解釈可能性を高める方法を示す。
元々の物理学の定式化に基づいて構築されたこのフレームワークは、イベント中心の尺度を導入して、アクションや観察、その他の離散的な発生が将来の時間的地平線における不確実性にどのように影響するかをキャプチャする。
エントロピーポテンシャルのオリジナルの定義とAIによって調整された定義はどちらも形式化されており、後者は反現実的なシナリオを考慮に入れた条件付き期待を強調している。
政策評価、本質的な報酬設計、説明可能なAI、異常検出において応用が検討され、インテリジェントシステムにおける不確実性モデリングを統一し強化するメトリクスの可能性を強調している。
概念的な例では、強化学習、ベイズ推論、異常検出での使用が説明され、複雑なAIモデルにおける計算の実践的考察が議論されている。
エントロピックポテンシャルフレームワークは、AIの不確実性を管理し、熱力学、情報理論、機械学習から原則をブリッジする、理論的に根底から解釈可能で汎用的なアプローチを提供する。
関連論文リスト
- A Conjecture on a Fundamental Trade-Off between Certainty and Scope in Symbolic and Generative AI [0.0]
論文では、AIシステムにおける証明可能な正しさと広範なデータマッピング能力の基本的なトレードオフを定式化する予想を紹介している。
この暗黙のトレードオフを明確化し、厳密な検証にオープンにすることで、この予想は、エンジニアリングの野望とAIに対する哲学的な期待の両方を大きく変えた。
論文 参考訳(メタデータ) (2025-06-11T19:18:13Z) - Exploring Energy Landscapes for Minimal Counterfactual Explanations: Applications in Cybersecurity and Beyond [3.6963146054309597]
説明可能な人工知能(XAI)において、対物的説明が顕著な方法として浮上している。
本稿では、摂動理論と統計力学を統合し、最小限の反実的説明を生成する新しい枠組みを提案する。
提案手法は,妥当性を維持しつつモデルの予測を変更するために必要な最小限の修正を系統的に同定する。
論文 参考訳(メタデータ) (2025-03-23T19:48:37Z) - From Aleatoric to Epistemic: Exploring Uncertainty Quantification Techniques in Artificial Intelligence [19.369216778200034]
不確実性定量化(英: Uncertainty Quantification、UQ)は、人工知能(AI)システムにおいて重要な側面である。
本稿では,AIにおける不確実性定量化技術の進化について概説する。
様々な分野におけるUQの多様な応用について検討し、意思決定、予測精度、システムの堅牢性への影響を強調した。
論文 参考訳(メタデータ) (2025-01-05T23:14:47Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。