論文の概要: Model Agnostic Multilevel Explanations
- arxiv url: http://arxiv.org/abs/2003.06005v1
- Date: Thu, 12 Mar 2020 20:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:10:34.889337
- Title: Model Agnostic Multilevel Explanations
- Title(参考訳): モデル非依存多レベル説明
- Authors: Karthikeyan Natesan Ramamurthy, Bhanukiran Vinzamuri, Yunfeng Zhang,
Amit Dhurandhar
- Abstract要約: 本稿では,典型的な局所的説明可能性法を前提として,マルチレベル説明木を構築するメタメソッドを提案する。
この木の葉は局所的な説明に対応し、根は大域的な説明に対応し、中間レベルは群データポイントの説明に対応する。
このようなマルチレベル構造は,データセット全体を特徴付ける説明をほとんど得られない,効果的なコミュニケーション形態でもある,と我々は主張する。
- 参考スコア(独自算出の注目度): 31.831973884850147
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, post-hoc local instance-level and global dataset-level
explainability of black-box models has received a lot of attention. Much less
attention has been given to obtaining insights at intermediate or group levels,
which is a need outlined in recent works that study the challenges in realizing
the guidelines in the General Data Protection Regulation (GDPR). In this paper,
we propose a meta-method that, given a typical local explainability method, can
build a multilevel explanation tree. The leaves of this tree correspond to the
local explanations, the root corresponds to the global explanation, and
intermediate levels correspond to explanations for groups of data points that
it automatically clusters. The method can also leverage side information, where
users can specify points for which they may want the explanations to be
similar. We argue that such a multilevel structure can also be an effective
form of communication, where one could obtain few explanations that
characterize the entire dataset by considering an appropriate level in our
explanation tree. Explanations for novel test points can be cost-efficiently
obtained by associating them with the closest training points. When the local
explainability technique is generalized additive (viz. LIME, GAMs), we develop
a fast approximate algorithm for building the multilevel tree and study its
convergence behavior. We validate the effectiveness of the proposed technique
based on two human studies -- one with experts and the other with non-expert
users -- on real world datasets, and show that we produce high fidelity sparse
explanations on several other public datasets.
- Abstract(参考訳): 近年,ブラックボックスモデルのローカルインスタンスレベルとグローバルデータセットレベルの説明可能性に注目が集まっている。
これは、一般データ保護規則(gdpr)におけるガイドライン実現の課題を研究する最近の研究で概説されたニーズである。
本稿では,典型的な局所的説明可能性法が与えられ,多レベル説明木を構築できるメタ手法を提案する。
この木の葉は局所的な説明に対応し、根は大域的な説明に対応し、中間レベルは自動的にクラスタ化されるデータポイントのグループの説明に対応する。
この手法はサイド情報を活用でき、ユーザーは説明を類似させたいかもしれないポイントを指定できる。
このようなマルチレベル構造は効果的なコミュニケーション形態であり,説明ツリーの適切なレベルを考慮すれば,データセット全体を特徴付ける説明がほとんど得られないことを論じる。
新たなテストポイントの説明は、最も近いトレーニングポイントと関連付けることで、コスト効率良く得られる。
局所的説明可能性法が一般化加法 (viz. LIME, GAMs) となると、多層木の構築と収束挙動の研究のための高速近似アルゴリズムを開発する。
提案手法の有効性を,実世界データセット上での2つの人間研究(専門家と非専門家ユーザ)に基づいて検証し,他のいくつかの公開データセットに対して高い忠実度を生み出すことを示す。
関連論文リスト
- Saliency Methods are Encoders: Analysing Logical Relations Towards Interpretation [0.11510009152620666]
ニューラルネットワークモデルの説明可能性を改善するために、サリエンシマップがしばしば生成される。
本稿では、単純な論理的データセット上で可能なすべてのモデル推論に基づく実験を提案する。
そこで本研究では,その論理的関係を利用して,異なるクラス識別シナリオにおける情報処理方法の相違点を理解することを目的とする。
以上の結果から,Saliency法は分類関連情報をSaliencyスコアの順序付けにエンコードできることがわかった。
論文 参考訳(メタデータ) (2024-12-17T08:55:17Z) - Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - GLOBE-CE: A Translation-Based Approach for Global Counterfactual
Explanations [10.276136171459731]
Global & Efficient Counterfactual Explanations (GLOBE-CE)は、現在の最先端技術に関連する信頼性とスケーラビリティの問題に取り組む柔軟なフレームワークである。
分類的特徴翻訳を数学的に解析し,その手法を応用した。
公開データセットとユーザスタディによる実験的評価は、GLOBE-CEが現在の最先端よりも大幅にパフォーマンスが向上していることを示している。
論文 参考訳(メタデータ) (2023-05-26T15:26:59Z) - Hierarchical clustering with dot products recovers hidden tree structure [53.68551192799585]
本稿では,階層構造の回復に着目した凝集クラスタリングアルゴリズムの新しい視点を提案する。
クラスタを最大平均点積でマージし、例えば最小距離やクラスタ内分散でマージしないような、標準的なアルゴリズムの単純な変種を推奨する。
このアルゴリズムにより得られた木は、汎用確率的グラフィカルモデルの下で、データ中の生成的階層構造をボナフェイド推定することを示した。
論文 参考訳(メタデータ) (2023-05-24T11:05:12Z) - A Unified Understanding of Deep NLP Models for Text Classification [88.35418976241057]
我々は、テキスト分類のためのNLPモデルの統一的な理解を可能にする視覚解析ツールDeepNLPVisを開発した。
主要なアイデアは相互情報に基づく尺度であり、モデルの各レイヤがサンプル内の入力語の情報をどのように保持するかを定量的に説明する。
コーパスレベル、サンプルレベル、単語レベルビジュアライゼーションで構成されるマルチレベルビジュアライゼーションは、全体トレーニングセットから個々のサンプルまでの分析をサポートする。
論文 参考訳(メタデータ) (2022-06-19T08:55:07Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - Best of both worlds: local and global explanations with
human-understandable concepts [10.155485106226754]
解釈可能性のテクニックは、モデルの決定の背後にある理論的根拠を提供することを目的としている。
提案手法は, 地上の真理と比較して, TCAVのグローバルな説明を改善するとともに, 有用な知見を提供する。
論文 参考訳(メタデータ) (2021-06-16T09:05:25Z) - Self-supervised Graph-level Representation Learning with Local and
Global Structure [71.45196938842608]
自己教師付き全グラフ表現学習のためのローカル・インスタンスとグローバル・セマンティック・ラーニング(GraphLoG)という統合フレームワークを提案する。
GraphLoGは、局所的な類似点の保存に加えて、グローバルなセマンティッククラスタをキャプチャする階層的なプロトタイプも導入している。
モデル学習のための効率的なオンライン予測最大化(EM)アルゴリズムがさらに開発された。
論文 参考訳(メタデータ) (2021-06-08T05:25:38Z) - Deep Descriptive Clustering [24.237000220172906]
本稿では,解釈可能なタグを用いた説明を同時に生成しながら,複雑なデータに対してクラスタリングを行うための新しい設定について検討する。
我々は,入力に対する経験的分布と,クラスタリング目的に対して誘導されたクラスタリングラベルの相互情報を最大化することにより,優れたクラスタを形成する。
公開データによる実験結果から,クラスタリング性能の競争ベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2021-05-24T21:40:16Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - Graph Inference Learning for Semi-supervised Classification [50.55765399527556]
半教師付きノード分類の性能を高めるためのグラフ推論学習フレームワークを提案する。
推論過程の学習には,トレーニングノードから検証ノードへの構造関係のメタ最適化を導入する。
4つのベンチマークデータセットの総合的な評価は、最先端の手法と比較して提案したGILの優位性を示している。
論文 参考訳(メタデータ) (2020-01-17T02:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。