論文の概要: A Framework for Causal Concept-based Model Explanations
- arxiv url: http://arxiv.org/abs/2512.02735v1
- Date: Tue, 02 Dec 2025 13:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.884587
- Title: A Framework for Causal Concept-based Model Explanations
- Title(参考訳): 因果概念に基づくモデル記述のためのフレームワーク
- Authors: Anna Rodum Bjøru, Jacob Lysnæs-Larsen, Oskar Jørgensen, Inga Strümke, Helge Langseth,
- Abstract要約: 本研究は、因果概念に基づくポストホック説明可能な人工知能(XAI)の概念的枠組みを提示する。
非解釈可能なモデルに対する説明は、説明されているモデルに忠実であるだけでなく、理解可能であるべきであるという要求に基づいている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a conceptual framework for causal concept-based post-hoc Explainable Artificial Intelligence (XAI), based on the requirements that explanations for non-interpretable models should be understandable as well as faithful to the model being explained. Local and global explanations are generated by calculating the probability of sufficiency of concept interventions. Example explanations are presented, generated with a proof-of-concept model made to explain classifiers trained on the CelebA dataset. Understandability is demonstrated through a clear concept-based vocabulary, subject to an implicit causal interpretation. Fidelity is addressed by highlighting important framework assumptions, stressing that the context of explanation interpretation must align with the context of explanation generation.
- Abstract(参考訳): この研究は、非解釈可能なモデルの説明は、説明されるモデルに忠実であるだけでなく、理解可能であるべきであるという要求に基づいて、因果概念に基づくポストホックな説明可能な人工知能(XAI)の概念的枠組みを示す。
ローカルおよびグローバルな説明は、概念介入の十分性を計算することによって生成される。
例として、CelebAデータセットでトレーニングされた分類器を説明するための概念実証モデルが紹介されている。
理解性は明確な概念に基づく語彙によって示され、暗黙の因果解釈を受ける。
忠実性は、重要なフレームワークの仮定を強調し、説明解釈のコンテキストは説明生成のコンテキストと一致しなければならないことを強調することによって解決される。
関連論文リスト
- From Black-box to Causal-box: Towards Building More Interpretable Models [57.23201263629627]
本稿では, 因果解釈可能性の概念を導入し, 特定のモデルのクラスから対実的クエリを評価できるときの形式化について述べる。
我々は、与えられたモデルアーキテクチャが与えられた偽物クエリをサポートするかどうかを決定する完全なグラフィカルな基準を導出する。
論文 参考訳(メタデータ) (2025-10-24T20:03:18Z) - Logic Explanation of AI Classifiers by Categorical Explaining Functors [5.311276815905217]
本稿では,抽出された説明のコヒーレンスと忠実性を確保するための理論的基礎的アプローチを提案する。
概念実証として,合成ベンチマークを用いて提案した理論構造を検証した。
論文 参考訳(メタデータ) (2025-03-20T14:50:06Z) - On Generating Monolithic and Model Reconciling Explanations in Probabilistic Scenarios [46.24262986854885]
本稿では,確率論的モノリシックな説明とモデル整合的な説明を生成するための新しいフレームワークを提案する。
モノリシックな説明のために,本手法は確率論的論理を利用して不確実性を統合し,説明の確率を増大させる。
モデル整合性の説明のために,モデル整合性問題の論理に基づく変種を拡張し,確率的人間モデルを考慮したフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T16:07:31Z) - DiConStruct: Causal Concept-based Explanations through Black-Box
Distillation [9.735426765564474]
本稿では,概念ベースと因果性の両方を考慮した説明手法であるDiConStructを提案する。
本報告では, ブラックボックス機械学習モデルに対する蒸留モデルとして, その予測を近似し, それぞれの説明を生成する。
論文 参考訳(メタデータ) (2024-01-16T17:54:02Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。