論文の概要: CFIRE: A General Method for Combining Local Explanations
- arxiv url: http://arxiv.org/abs/2504.00930v1
- Date: Tue, 01 Apr 2025 16:04:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:20:14.499359
- Title: CFIRE: A General Method for Combining Local Explanations
- Title(参考訳): CFIRE: ローカルな説明を組み合わせるための一般的な方法
- Authors: Sebastian Müller, Vanessa Toborek, Tamás Horváth, Christian Bauckhage,
- Abstract要約: 我々は,局所的な説明から,忠実で理解しやすい,そして完全なグローバルな意思決定ルールを計算するための,新しいeXplainable AIアルゴリズムを提案する。
提案手法は,特定のブラックボックス決定に対して,各サンプルに対してどの寸法が重要かを示す局所的説明器で使用することができる。
- 参考スコア(独自算出の注目度): 6.349229162227667
- License:
- Abstract: We propose a novel eXplainable AI algorithm to compute faithful, easy-to-understand, and complete global decision rules from local explanations for tabular data by combining XAI methods with closed frequent itemset mining. Our method can be used with any local explainer that indicates which dimensions are important for a given sample for a given black-box decision. This property allows our algorithm to choose among different local explainers, addressing the disagreement problem, \ie the observation that no single explanation method consistently outperforms others across models and datasets. Unlike usual experimental methodology, our evaluation also accounts for the Rashomon effect in model explainability. To this end, we demonstrate the robustness of our approach in finding suitable rules for nearly all of the 700 black-box models we considered across 14 benchmark datasets. The results also show that our method exhibits improved runtime, high precision and F1-score while generating compact and complete rules.
- Abstract(参考訳): 我々は,XAI手法とクローズドなアイテムセットマイニングを組み合わせることで,グラフデータに対する局所的な説明から,忠実で理解しやすい,そして完全なグローバルな決定ルールを計算するための,新しいeXplainable AIアルゴリズムを提案する。
提案手法は,特定のブラックボックス決定に対して,各サンプルに対してどの寸法が重要かを示す局所的説明器で使用することができる。
この特性により、アルゴリズムは異なる局所的な説明者を選択することができ、不一致の問題に対処し、1つの説明法がモデルやデータセットで常に他よりも優れていることを観察することができる。
通常の実験手法とは異なり、モデル説明可能性におけるラショモン効果も評価する。
この目的のために、14のベンチマークデータセットで検討した700のブラックボックスモデルのうち、ほぼすべてに適切なルールを見つけるための、我々のアプローチの堅牢性を示します。
また,提案手法は,コンパクトかつ完全なルールを生成するとともに,実行時間,高精度,F1スコアを向上することを示した。
関連論文リスト
- On Discriminative Probabilistic Modeling for Self-Supervised Representation Learning [85.75164588939185]
本研究では,(マルチモーダル)自己教師型表現学習のデータ予測タスクにおいて,連続領域における識別確率モデルについて検討する。
我々は、自己教師付き表現学習における現在のInfoNCEに基づくコントラスト損失の制限を明らかにするために一般化誤差解析を行う。
MISが要求する条件付き確率密度の和を近似する新しい非パラメトリック手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T18:02:46Z) - Towards consistency of rule-based explainer and black box model -- fusion of rule induction and XAI-based feature importance [0.0]
ルールベースのモデルは、人間の理解可能な表現、すなわち解釈可能な表現を提供する。
このような説明の生成には、ルールベースモデルによるブラックボックスモデルの近似が含まれる。
ルールベースモデルが近似したブラックボックスモデルと同じ方法で決定を行うかどうかは、まだ調査されていない。
論文 参考訳(メタデータ) (2024-07-16T07:56:29Z) - Local Universal Explainer (LUX) -- a rule-based explainer with factual, counterfactual and visual explanations [7.673339435080445]
Local Universal Explainer (LUX) は、現実的、対実的、視覚的な説明を生成できるルールベースの説明器である。
これは、決定木アルゴリズムの修正版に基づいており、斜め分割とSHAPのような重要なXAIメソッドとの統合を可能にする。
提案手法を実データと合成データセットで検証し, LORE, EXPLAN, Anchorなどの最先端のルールベースの説明器と比較した。
論文 参考訳(メタデータ) (2023-10-23T13:04:15Z) - Domain Generalization via Rationale Invariance [70.32415695574555]
本稿では,未確認環境においてもロバストな結果の維持を伴う領域一般化の課題を緩和する新たな視点を提供する。
本稿では,最終結果に対する要素的貢献を決定の根拠として扱い,各試料の根拠を行列として表現することを提案する。
提案手法は, 単純性に拘わらず, 様々なデータセット間で競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-08-22T03:31:40Z) - Locally Invariant Explanations: Towards Stable and Unidirectional
Explanations through Local Invariant Learning [15.886405745163234]
不変リスク最小化原理に着想を得たモデル非依存的局所説明法を提案する。
我々のアルゴリズムは、訓練が簡単で効率的であり、サイド情報にアクセスすることなく、ブラックボックスの局所的な決定のための安定した入力機能を確認することができる。
論文 参考訳(メタデータ) (2022-01-28T14:29:25Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - MeLIME: Meaningful Local Explanation for Machine Learning Models [2.819725769698229]
我々のアプローチであるMeLIMEは、異なるMLモデル上での他の手法と比較して、より意味のある説明を生成する。
MeLIMEはLIME法を一般化し、より柔軟な摂動サンプリングと異なる局所解釈可能なモデルの使用を可能にした。
論文 参考訳(メタデータ) (2020-09-12T16:06:58Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Optimal Local Explainer Aggregation for Interpretable Prediction [12.934180951771596]
ブラックボックスマシン学習モデルを導入する際の意思決定者にとっての課題は、これらのモデルが提供する予測を理解することだ。
提案手法の1つは、より複雑なモデルに近似した代理説明器モデルの訓練である。
本稿では,情報パラメータに基づく新しい局所的説明アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-20T19:02:11Z) - Almost-Matching-Exactly for Treatment Effect Estimation under Network
Interference [73.23326654892963]
本研究では,観測ネットワーク上でユニットが接続されたランダム化実験から直接処理効果を回復するマッチング手法を提案する。
本手法は, 近傍グラフ内の一意部分グラフの個数にほぼ一致する。
論文 参考訳(メタデータ) (2020-03-02T15:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。