論文の概要: Local Universal Rule-based Explanations
- arxiv url: http://arxiv.org/abs/2310.14894v1
- Date: Mon, 23 Oct 2023 13:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 20:06:14.147020
- Title: Local Universal Rule-based Explanations
- Title(参考訳): ローカルユニバーサルルールに基づく説明
- Authors: Szymon Bobek, Grzegorz J. Nalepa
- Abstract要約: Local Universal Explainer (LUX) は、現実的、対実的、視覚的な説明を生成できるルールベースの説明器である。
他のアルゴリズムとは逆のデータ生成は使用せず、実データの高密度クラスタの形で局所的な概念を選択することに重点を置いている。
提案手法を実データと合成データセットで検証し, LORE, EXPLAN, Anchorなどの最先端のルールベースの説明器と比較した。
- 参考スコア(独自算出の注目度): 9.065034043031668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence (XAI) is one of the most intensively
developed are of AI in recent years. It is also one of the most fragmented one
with multiple methods that focus on different aspects of explanations. This
makes difficult to obtain the full spectrum of explanation at once in a compact
and consistent way. To address this issue, we present Local Universal Explainer
(LUX) that is a rule-based explainer which can generate factual, counterfactual
and visual explanations. It is based on a modified version of decision tree
algorithms that allows for oblique splits and integration with feature
importance XAI methods such as SHAP or LIME. It does not use data generation in
opposite to other algorithms, but is focused on selecting local concepts in a
form of high-density clusters of real data that have the highest impact on
forming the decision boundary of the explained model. We tested our method on
real and synthetic datasets and compared it with state-of-the-art rule-based
explainers such as LORE, EXPLAN and Anchor. Our method outperforms currently
existing approaches in terms of simplicity, global fidelity and
representativeness.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、近年で最も重要なAIの1つである。
また、説明の異なる側面にフォーカスする複数のメソッドを持つ最も断片化されたものの1つである。
これは、コンパクトで一貫した方法で一度に説明の完全なスペクトルを得るのが困難である。
この問題に対処するため,我々は,事実的,反事実的,視覚的な説明を生成できる規則に基づく説明器であるローカル・ユニバーサル・リゾルバ(lux)を提案する。
これは、決定木アルゴリズムの修正版に基づいており、斜め分割とSHAPやLIMEのような重要なXAIメソッドとの統合を可能にする。
他のアルゴリズムとは対照的にデータ生成を使用しないが、説明モデルの決定境界の形成に最も影響を与える実データの高密度クラスタの形式で局所的な概念を選択することに焦点を当てている。
提案手法を実データおよび合成データセット上で検証し, LORE, EXPLAN, Anchorなどの最先端ルールベースの説明器と比較した。
提案手法は, 単純性, グローバル忠実性, 代表性の観点から, 既存のアプローチを上回っている。
関連論文リスト
- Info-CELS: Informative Saliency Map Guided Counterfactual Explanation [1.25828876338076]
新たな対実的説明モデルCELSが導入された。
CELSは、インスタンスの興味を引いたサリエンシマップを学習し、学習したサリエンシマップによってガイドされた反ファクトな説明を生成する。
CELSを基盤とした拡張されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-27T18:12:02Z) - Global Human-guided Counterfactual Explanations for Molecular Properties via Reinforcement Learning [49.095065258759895]
我々は分子特性予測のための新しいグローバルな説明モデルRLHEXを開発した。
反事実的な説明と人間の定義した原則を一致させ、説明をより解釈しやすくし、専門家が容易に評価できるようにする。
RLHEXによるグローバルな説明は、より多くの4.12%の入力グラフをカバーし、3つの分子データセットの平均0.47%の反実的な説明セットと入力セットの間の距離を削減している。
論文 参考訳(メタデータ) (2024-06-19T22:16:40Z) - CAGE: Causality-Aware Shapley Value for Global Explanations [4.017708359820078]
AIモデルを説明する1つの方法は、AIモデルに対する入力機能の予測的重要性を明らかにすることである。
協調ゲーム理論に触発されたシェープリーは、特徴の重要性を説明として定量化する便利な方法を提供する。
特に、入力特徴の因果関係を尊重する外部特徴に対する新しいサンプリング手順を導入する。
論文 参考訳(メタデータ) (2024-04-17T09:43:54Z) - Fidelity of Ensemble Aggregation for Saliency Map Explanations using
Bayesian Optimization Techniques [0.0]
我々は,異なる画素ベースのアグリゲーションスキームを新しい説明を生成するために提示し,比較する。
個々の説明の差異を集約プロセスに組み込む。
また,複数の正規化手法がアンサンブルアグリゲーションに与える影響を解析した。
論文 参考訳(メタデータ) (2022-07-04T16:34:12Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - Explaining Convolutional Neural Networks through Attribution-Based Input
Sampling and Block-Wise Feature Aggregation [22.688772441351308]
クラスアクティベーションマッピングとランダムな入力サンプリングに基づく手法が広く普及している。
しかし、帰属法は、その説明力を制限した解像度とぼやけた説明地図を提供する。
本研究では、帰属型入力サンプリング技術に基づいて、モデルの複数の層から可視化マップを収集する。
また,CNNモデル全体に適用可能な層選択戦略を提案する。
論文 参考訳(メタデータ) (2020-10-01T20:27:30Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - The data-driven physical-based equations discovery using evolutionary
approach [77.34726150561087]
与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。
このアルゴリズムは遺伝的プログラミングとスパース回帰を組み合わせたものである。
解析方程式の発見や偏微分方程式(PDE)の発見にも用いられる。
論文 参考訳(メタデータ) (2020-04-03T17:21:57Z) - Ontology-based Interpretable Machine Learning for Textual Data [35.01650633374998]
本稿では,予測モデルを説明するためのサンプリング手法に基づいて,解釈可能なモデルを学習する新しい解釈フレームワークを提案する。
説明のために探索空間を狭めるために,学習可能なアンカーアルゴリズムを設計する。
さらに、学習された解釈可能な表現とアンカーを組み合わせることで、理解可能な説明を生成する一連の規則が導入された。
論文 参考訳(メタデータ) (2020-04-01T02:51:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。