論文の概要: Towards consistency of rule-based explainer and black box model -- fusion of rule induction and XAI-based feature importance
- arxiv url: http://arxiv.org/abs/2407.14543v1
- Date: Tue, 16 Jul 2024 07:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 22:03:21.641466
- Title: Towards consistency of rule-based explainer and black box model -- fusion of rule induction and XAI-based feature importance
- Title(参考訳): ルールベース説明書とブラックボックスモデルの整合性を目指して -- ルール誘導とXAIに基づく特徴の融合
- Authors: Michał Kozielski, Marek Sikora, Łukasz Wawrowski,
- Abstract要約: ルールベースのモデルは、人間の理解可能な表現、すなわち解釈可能な表現を提供する。
このような説明の生成には、ルールベースモデルによるブラックボックスモデルの近似が含まれる。
ルールベースモデルが近似したブラックボックスモデルと同じ方法で決定を行うかどうかは、まだ調査されていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rule-based models offer a human-understandable representation, i.e. they are interpretable. For this reason, they are used to explain the decisions of non-interpretable complex models, referred to as black box models. The generation of such explanations involves the approximation of a black box model by a rule-based model. To date, however, it has not been investigated whether the rule-based model makes decisions in the same way as the black box model it approximates. Decision making in the same way is understood in this work as the consistency of decisions and the consistency of the most important attributes used for decision making. This study proposes a novel approach ensuring that the rule-based surrogate model mimics the performance of the black box model. The proposed solution performs an explanation fusion involving rule generation and taking into account the feature importance determined by the selected XAI methods for the black box model being explained. The result of the method can be both global and local rule-based explanations. The quality of the proposed solution was verified by extensive analysis on 30 tabular benchmark datasets representing classification problems. Evaluation included comparison with the reference method and an illustrative case study. In addition, the paper discusses the possible pathways for the application of the rule-based approach in XAI and how rule-based explanations, including the proposed method, meet the user perspective and requirements for both content and presentation. The software created and a detailed report containing the full experimental results are available on the GitHub repository (https://github.com/ruleminer/FI-rules4XAI ).
- Abstract(参考訳): ルールベースのモデルは、人間の理解可能な表現、すなわち解釈可能な表現を提供する。
このため、ブラックボックスモデルと呼ばれる非解釈可能な複素モデルの決定を説明するために用いられる。
このような説明の生成には、ルールベースモデルによるブラックボックスモデルの近似が含まれる。
しかし,ルールベースモデルがブラックボックスモデルと同じような判断を下すかどうかについては,現時点では調査されていない。
同様に意思決定は、決定の一貫性と意思決定に使用される最も重要な属性の一貫性として、この研究で理解されています。
本研究では,ルールベースサロゲートモデルがブラックボックスモデルの性能を模倣することを保証する新しい手法を提案する。
提案手法はルール生成を含む説明融合を行い,ブラックボックスモデルに対する選択されたXAI法で決定される特徴を考慮に入れた。
この手法の結果は、大域的および局所的なルールに基づく説明である。
提案手法の品質は,分類問題を表す30の表付きベンチマークデータセットの広範囲な解析により検証された。
評価には, 基準法との比較と, 図案ケーススタディが含まれていた。
さらに,本論文では,XAIにおけるルールベースアプローチの適用の可能性と,提案手法を含むルールベースの説明が,コンテンツとプレゼンテーションの両方のユーザ視点と要件を満たす方法について論じる。
ソフトウェアと完全な実験結果を含む詳細なレポートはGitHubリポジトリ(https://github.com/ruleminer/FI-rules4XAI )で公開されている。
関連論文リスト
- An Interpretable Rule Creation Method for Black-Box Models based on Surrogate Trees -- SRules [0.0]
代用決定木(SRules)に基づく新しいルールセット作成手法を提案する。
SRulesは、機械学習モデルの正確性、カバレッジ、解釈可能性のバランスをとる。
我々のアプローチは解釈可能なルールを提供するだけでなく、これらのルールの信頼性とカバレッジを定量化します。
論文 参考訳(メタデータ) (2024-07-29T14:56:56Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Studying How to Efficiently and Effectively Guide Models with Explanations [52.498055901649025]
「モデルガイダンス」とは「正しい理由のために正しい」ことを保証するためにモデルの説明を規則化する考え方である。
PASCAL VOC 2007 および MS COCO 2014 データセット上で, 各種損失関数, 帰属方法, モデル, 誘導深度について詳細な評価を行う。
具体的には、一般的に使用されるセグメンテーションマスクよりもはるかに安価で入手可能なバウンディングボックスアノテーションを用いてモデルをガイドする。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Explanations Based on Item Response Theory (eXirt): A Model-Specific Method to Explain Tree-Ensemble Model in Trust Perspective [0.4749981032986242]
Ciu、Dalex、Eli5、Lofo、Shap、Skaterといった手法がブラックボックスモデルを説明するために登場した。
Xirtは、ツリーアンサンブルモデルのグローバルな説明とIRTを通してモデルのインスタンスのローカルな説明を生成することができる。
論文 参考訳(メタデータ) (2022-10-18T15:30:14Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z) - Recurrence-Aware Long-Term Cognitive Network for Explainable Pattern
Classification [0.0]
構造化データの解釈可能なパターン分類のためのLCCNモデルを提案する。
本手法は, 決定過程における各特徴の関連性を定量化し, 説明を提供する独自のメカニズムを提供する。
解釈可能なモデルでは,最先端の白黒ボックスと比較して競争性能が向上する。
論文 参考訳(メタデータ) (2021-07-07T18:14:50Z) - An exact counterfactual-example-based approach to tree-ensemble models
interpretability [0.0]
高性能モデルは、決定を完全に理解するために必要な透明性を示さない。
多次元間隔の集まりの形で、決定領域の正確な幾何学的特徴付けを導出できる。
回帰問題に対する推論への適応も考えられている。
論文 参考訳(メタデータ) (2021-05-31T09:32:46Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。