論文の概要: The Limits of AI Explainability: An Algorithmic Information Theory Approach
- arxiv url: http://arxiv.org/abs/2504.20676v1
- Date: Tue, 29 Apr 2025 11:58:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.878151
- Title: The Limits of AI Explainability: An Algorithmic Information Theory Approach
- Title(参考訳): AI説明可能性の限界:アルゴリズム情報理論アプローチ
- Authors: Shrisha Rao,
- Abstract要約: 本稿では,アルゴリズム情報理論によるAI説明可能性の基本的限界を理解するための理論的基盤を確立する。
複素モデルの近似として説明可能性の形式化を行い、コルモゴロフを用いた近似誤差と説明の定量化を行う。
結果は、説明可能なAIシステムの設計、評価、監視に関連すると思われる考慮事項を強調している。
- 参考スコア(独自算出の注目度): 4.759142872591625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper establishes a theoretical foundation for understanding the fundamental limits of AI explainability through algorithmic information theory. We formalize explainability as the approximation of complex models by simpler ones, quantifying both approximation error and explanation complexity using Kolmogorov complexity. Our key theoretical contributions include: (1) a complexity gap theorem proving that any explanation significantly simpler than the original model must differ from it on some inputs; (2) precise bounds showing that explanation complexity grows exponentially with input dimension but polynomially with error tolerance for Lipschitz functions; and (3) a characterization of the gap between local and global explainability, demonstrating that local explanations can be significantly simpler while maintaining accuracy in relevant regions. We further establish a regulatory impossibility theorem proving that no governance framework can simultaneously pursue unrestricted AI capabilities, human-interpretable explanations, and negligible error. These results highlight considerations likely to be relevant to the design, evaluation, and oversight of explainable AI systems.
- Abstract(参考訳): 本稿では,アルゴリズム情報理論によるAI説明可能性の基本的限界を理解するための理論的基盤を確立する。
複素モデルの近似を簡易に定式化し、コルモゴロフ複雑性を用いた近似誤差と説明複雑性の両方を定量化する。
主な理論的貢献は,(1)元のモデルよりもはるかに単純な説明がいくつかの入力で異なることを証明する複雑性ギャップ定理,(2)説明複雑性は入力次元とともに指数関数的に増大するが,多項式的にリプシッツ関数の誤差耐性を持つことを示す正確な境界,(3)局所的説明可能性と大域的説明可能性の間のギャップのキャラクタリゼーション,などである。
さらに、ガバナンスフレームワークが、制限のないAI能力、人間解釈可能な説明、無視可能なエラーを同時に追求できないことを証明した規制不合理性定理を確立します。
これらの結果は、説明可能なAIシステムの設計、評価、監視に関連する可能性のある考慮事項を浮き彫りにする。
関連論文リスト
- ZebraLogic: On the Scaling Limits of LLMs for Logical Reasoning [92.76959707441954]
我々はLLM推論性能を評価するための総合的な評価フレームワークであるZebraLogicを紹介した。
ZebraLogicは、制御可能で定量化可能な複雑さを持つパズルの生成を可能にする。
その結果,複雑性が増大するにつれて,精度が著しく低下することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-03T06:44:49Z) - On the Complexity of Quantum Field Theory [0.0]
最小限のアサーションから、形式と次数と呼ばれる2つの整数による複雑性の測定が自然に導かれることを示す。
我々は、摂動理論、対称性、再正規化群といった文脈における我々のアプローチの物理的解釈について議論する。
論文 参考訳(メタデータ) (2024-10-30T18:00:00Z) - Hard to Explain: On the Computational Hardness of In-Distribution Model Interpretation [0.9558392439655016]
機械学習(ML)モデルを解釈する能力はますます不可欠になりつつある。
近年の研究では、様々なモデルの意思決定を説明する計算複雑性を研究することにより、解釈可能性について正式に評価することが可能であることが示されている。
論文 参考訳(メタデータ) (2024-08-07T17:20:52Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - From Robustness to Explainability and Back Again [3.7950144463212134]
本稿では、形式的説明可能性のスケーラビリティの低さに対処し、形式的説明を計算するための新しい効率的なアルゴリズムを提案する。
提案アルゴリズムは、代わりに複数のクエリに答えることによって説明を計算し、そのようなクエリの数は、機能数に対して最も線形であるように頑健である。
論文 参考訳(メタデータ) (2023-06-05T17:21:05Z) - Balancing Explainability-Accuracy of Complex Models [8.402048778245165]
我々は,コリレーションの影響に基づき,複雑なモデルに対する新しいアプローチを提案する。
独立機能と依存機能の両方のシナリオに対するアプローチを提案する。
従属特徴に対する提案手法の複雑さの上限を提供する。
論文 参考訳(メタデータ) (2023-05-23T14:20:38Z) - A Parameterized Theory of PAC Learning [19.686465068713467]
おそらく略正(PAC)学習は、サンプル複雑性理論の中核的な概念である。
我々は、パラメータ化複雑性の要素を組み込んだ最近のPAC学習結果に新たな光を当てることができるパラメータ化PAC学習の理論を開発した。
論文 参考訳(メタデータ) (2023-04-27T09:39:30Z) - A simplicity bubble problem and zemblanity in digitally intermediated societies [1.4380443010065829]
社会におけるビッグデータと機械学習の普遍性について論じる。
以上の結果から, 公式な知識だけでは, 迷走神経所見の可能性がさらに低下しない天井があることが示唆された。
論文 参考訳(メタデータ) (2023-04-21T00:02:15Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - From LSAT: The Progress and Challenges of Complex Reasoning [56.07448735248901]
本稿では,LSAT(Law School Admission Test)の3つの課題について,解析的推論,論理的推論,読解の3つの課題について検討する。
本稿では,これら3つのタスクを統合するハイブリッド推論システムを提案する。
論文 参考訳(メタデータ) (2021-08-02T05:43:03Z) - Parsimonious Inference [0.0]
parsimonious inferenceは任意のアーキテクチャ上の推論の情報理論的な定式化である。
提案手法は,効率的な符号化と巧妙なサンプリング戦略を組み合わせて,クロスバリデーションを伴わない予測アンサンブルを構築する。
論文 参考訳(メタデータ) (2021-03-03T04:13:14Z) - Fundamental Limits and Tradeoffs in Invariant Representation Learning [99.2368462915979]
多くの機械学習アプリケーションは、2つの競合する目標を達成する表現を学習する。
ミニマックスゲーム理論の定式化は、精度と不変性の基本的なトレードオフを表す。
分類と回帰の双方において,この一般的かつ重要な問題を情報論的に解析する。
論文 参考訳(メタデータ) (2020-12-19T15:24:04Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。