論文の概要: Local Universal Explainer (LUX) -- a rule-based explainer with factual,
counterfactual and visual explanations
- arxiv url: http://arxiv.org/abs/2310.14894v2
- Date: Fri, 9 Feb 2024 11:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 20:19:55.927521
- Title: Local Universal Explainer (LUX) -- a rule-based explainer with factual,
counterfactual and visual explanations
- Title(参考訳): Local Universal Explainer (LUX) -- 現実的、事実的、視覚的説明を伴うルールベースの説明器
- Authors: Szymon Bobek, Grzegorz J. Nalepa
- Abstract要約: Local Universal Explainer (LUX) は、現実的、対実的、視覚的な説明を生成できるルールベースの説明器である。
提案手法は, 単純さ, 大域的忠実度, 代表性, 一貫性の観点から, 既存手法よりも優れている。
- 参考スコア(独自算出の注目度): 9.065034043031668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence (XAI) is one of the most intensively
developed area of AI in recent years. It is also one of the most fragmented
with multiple methods that focus on different aspects of explanations. This
makes difficult to obtain the full spectrum of explanation at once in a compact
and consistent way. To address this issue, we present Local Universal Explainer
(LUX), which is a rule-based explainer that can generate factual,
counterfactual and visual explanations. It is based on a modified version of
decision tree algorithms that allows for oblique splits and integration with
feature importance XAI methods such as SHAP or LIME. It does not use data
generation in opposite to other algorithms, but is focused on selecting local
concepts in a form of high-density clusters of real data that have the highest
impact on forming the decision boundary of the explained model. We tested our
method on real and synthetic datasets and compared it with state-of-the-art
rule-based explainers such as LORE, EXPLAN and Anchor. Our method outperforms
the existing approaches in terms of simplicity, global fidelity,
representativeness, and consistency.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、近年で最も重要なAI分野の一つである。
また、説明の異なる側面に焦点を当てた複数のメソッドでもっとも断片化された1つである。
これは、コンパクトで一貫した方法で一度に説明の完全なスペクトルを得るのが困難である。
この問題に対処するため,我々は,事実的,反事実的,視覚的な説明を生成できるルールベースの説明器であるlocal universal explanationer (lux)を提案する。
これは、決定木アルゴリズムの修正版に基づいており、斜め分割とSHAPやLIMEのような重要なXAIメソッドとの統合を可能にする。
他のアルゴリズムとは対照的にデータ生成を使用しないが、説明モデルの決定境界の形成に最も影響を与える実データの高密度クラスタの形式で局所的な概念を選択することに焦点を当てている。
提案手法を実データおよび合成データセット上で検証し, LORE, EXPLAN, Anchorなどの最先端ルールベースの説明器と比較した。
提案手法は, 単純さ, グローバル忠実性, 代表性, 一貫性の観点から, 既存のアプローチを上回っている。
関連論文リスト
- Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Efficient GNN Explanation via Learning Removal-based Attribution [56.18049062940675]
本稿では,LARA (LeArn removal-based Attribution) というGNN説明の枠組みを提案し,この問題に対処する。
LARAの解説者は、高い忠実度で説明を提供することができる除去に基づく属性を生成することを学ぶ。
特に、LARAは3.5倍高速で、大きなデータセットogbn-arxivの最先端の手法よりも忠実である。
論文 参考訳(メタデータ) (2023-06-09T08:54:20Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Fidelity of Ensemble Aggregation for Saliency Map Explanations using
Bayesian Optimization Techniques [0.0]
我々は,異なる画素ベースのアグリゲーションスキームを新しい説明を生成するために提示し,比較する。
個々の説明の差異を集約プロセスに組み込む。
また,複数の正規化手法がアンサンブルアグリゲーションに与える影響を解析した。
論文 参考訳(メタデータ) (2022-07-04T16:34:12Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Best of both worlds: local and global explanations with
human-understandable concepts [10.155485106226754]
解釈可能性のテクニックは、モデルの決定の背後にある理論的根拠を提供することを目的としている。
提案手法は, 地上の真理と比較して, TCAVのグローバルな説明を改善するとともに, 有用な知見を提供する。
論文 参考訳(メタデータ) (2021-06-16T09:05:25Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - Explaining Predictions by Approximating the Local Decision Boundary [3.60160227126201]
局所決定境界近似(DBA)の新しい手法を提案する。
我々は変分オートエンコーダを訓練し、符号化されたデータ表現のユークリッド潜在空間を学習する。
我々は属性アノテーションを利用して、潜在空間をユーザにとって意味のある属性にマッピングします。
論文 参考訳(メタデータ) (2020-06-14T19:12:42Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - Optimal Local Explainer Aggregation for Interpretable Prediction [12.934180951771596]
ブラックボックスマシン学習モデルを導入する際の意思決定者にとっての課題は、これらのモデルが提供する予測を理解することだ。
提案手法の1つは、より複雑なモデルに近似した代理説明器モデルの訓練である。
本稿では,情報パラメータに基づく新しい局所的説明アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-20T19:02:11Z) - Explainable Deep Classification Models for Domain Generalization [94.43131722655617]
説明は、深い分類網が決定を下す視覚的証拠の領域として定義される。
トレーニング戦略は周期的な正当性に基づくフィードバックを強制し、モデルが地中真実に直接対応する画像領域に焦点を合わせることを奨励する。
論文 参考訳(メタデータ) (2020-03-13T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。