論文の概要: Explanation Beyond Intuition: A Testable Criterion for Inherent Explainability
- arxiv url: http://arxiv.org/abs/2512.17316v1
- Date: Fri, 19 Dec 2025 07:59:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.294588
- Title: Explanation Beyond Intuition: A Testable Criterion for Inherent Explainability
- Title(参考訳): 直観を超えた説明: 一貫性のある説明可能性のためのテスト可能な基準
- Authors: Michael Merry, Pat Riddle, Jim Warren,
- Abstract要約: 説明可能な人工知能 (XAI) のゴールド・スタンダードはインヒーレント・説明責任である
固有の説明可能性を示す一貫した定義やテストは存在しない。
本稿では,本質的説明可能性に関する世界的基準を提案する。
- 参考スコア(独自算出の注目度): 0.2580765958706854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inherent explainability is the gold standard in Explainable Artificial Intelligence (XAI). However, there is not a consistent definition or test to demonstrate inherent explainability. Work to date either characterises explainability through metrics, or appeals to intuition - "we know it when we see it". We propose a globally applicable criterion for inherent explainability. The criterion uses graph theory for representing and decomposing models for structure-local explanation, and recomposing them into global explanations. We form the structure-local explanations as annotations, a verifiable hypothesis-evidence structure that allows for a range of explanatory methods to be used. This criterion matches existing intuitions on inherent explainability, and provides justifications why a large regression model may not be explainable but a sparse neural network could be. We differentiate explainable -- a model that allows for explanation -- and \textit{explained} -- one that has a verified explanation. Finally, we provide a full explanation of PREDICT -- a Cox proportional hazards model of cardiovascular disease risk, which is in active clinical use in New Zealand. It follows that PREDICT is inherently explainable. This work provides structure to formalise other work on explainability, and allows regulators a flexible but rigorous test that can be used in compliance frameworks.
- Abstract(参考訳): 一貫性のある説明可能性(Inherent explainability)は、説明可能な人工知能(XAI)における金の標準である。
しかし、本質的な説明可能性を示す一貫した定義やテストは存在しない。
これまでの作業は、メトリクスによる説明可能性の特徴付けか、直感に訴える — “私たちはそれを見た時にそれを知っています” のどちらかです。
本稿では,本質的説明可能性に関する世界的基準を提案する。
この基準はグラフ理論を用いて構造的局所的な説明のためのモデルを表現し分解し、それらをグローバルな説明に再コンパイルする。
我々は、アノテーションとして構造的局所的な説明を形成する。これは、様々な説明法が使える検証可能な仮説証拠構造である。
この基準は、固有の説明可能性に関する既存の直観と一致し、大きな回帰モデルが説明できないが、スパースニューラルネットワークが可能である理由を正当化する。
我々は、説明可能なモデルである説明可能モデルと、検証された説明を持つモデルである「textit{explained}」を区別する。最後に、ニュージーランドで活発な臨床使用が行われているCox比例的心血管疾患のリスクモデルであるPreDICTについて、完全な説明を提供する。
PreDICTは本質的に説明可能である。
この作業は、説明可能性に関する他の作業を形式化する構造を提供し、規制当局がコンプライアンスフレームワークで使用できる柔軟だが厳格なテストを可能にする。
関連論文リスト
- Counterfactual explainability and analysis of variance [3.4895986723227383]
複雑なモデルやシステムを説明する既存のツールは因果関係ではなく関連性がある。
本稿では,因果帰属に対する反事実的説明可能性という新しい概念を提案する。
論文 参考訳(メタデータ) (2024-11-03T16:29:09Z) - Verifying Relational Explanations: A Probabilistic Approach [2.113770213797994]
我々は,GNNExplainerによる説明の不確実性を評価する手法を開発した。
説明において不確実性を定量化する因子グラフモデルを学習する。
いくつかのデータセットで得られた結果は,GNNExplainerによる説明の検証に有効であることを示している。
論文 参考訳(メタデータ) (2024-01-05T08:14:51Z) - A Theoretical Framework for AI Models Explainability with Application in
Biomedicine [3.5742391373143474]
本稿では,文献に見いだせる内容の合成である説明の新たな定義を提案する。
我々は、忠実性(すなわち、モデルの内部動作と意思決定プロセスの真の説明である説明)と可否性(つまり、その説明がどの程度ユーザにとって説得力のあるように見えるか)の性質に、説明を適合させる。
論文 参考訳(メタデータ) (2022-12-29T20:05:26Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Explanatory Paradigms in Neural Networks [18.32369721322249]
本稿では、推論に基づく質問に対する解答として説明を考慮し、ニューラルネットワークにおける説明可能性の研究に飛躍的に拡張する。
これらの質問に対する回答は, それぞれ, 相関, 反事実, 対照的な説明である。
この用語は、訓練されたニューラルネットワークが決定を下した後に、説明的手法が$P$を説明したとき、ホック後の説明可能性の特定のケースを指す。
論文 参考訳(メタデータ) (2022-02-24T00:22:11Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。