論文の概要: MAIRE -- A Model-Agnostic Interpretable Rule Extraction Procedure for
Explaining Classifiers
- arxiv url: http://arxiv.org/abs/2011.01506v1
- Date: Tue, 3 Nov 2020 06:53:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 03:58:59.041666
- Title: MAIRE -- A Model-Agnostic Interpretable Rule Extraction Procedure for
Explaining Classifiers
- Title(参考訳): MAIRE -- 説明型分類器のためのモデルに依存しない解釈可能なルール抽出法
- Authors: Rajat Sharma, Nikhil Reddy, Vidhya Kamakshi, Narayanan C Krishnan,
Shweta Jain
- Abstract要約: 本稿では,モデルに依存しない人間の解釈可能なルールを抽出し,分類器の出力を説明する新しい枠組みを提案する。
フレームワークはモデル非依存であり、任意の分類器に適用でき、すべての属性(連続、順序、順序なしの離散を含む)を適用できる。
- 参考スコア(独自算出の注目度): 5.02231401459109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The paper introduces a novel framework for extracting model-agnostic human
interpretable rules to explain a classifier's output. The human interpretable
rule is defined as an axis-aligned hyper-cuboid containing the instance for
which the classification decision has to be explained. The proposed procedure
finds the largest (high \textit{coverage}) axis-aligned hyper-cuboid such that
a high percentage of the instances in the hyper-cuboid have the same class
label as the instance being explained (high \textit{precision}). Novel
approximations to the coverage and precision measures in terms of the
parameters of the hyper-cuboid are defined. They are maximized using
gradient-based optimizers. The quality of the approximations is rigorously
analyzed theoretically and experimentally. Heuristics for simplifying the
generated explanations for achieving better interpretability and a greedy
selection algorithm that combines the local explanations for creating global
explanations for the model covering a large part of the instance space are also
proposed. The framework is model agnostic, can be applied to any arbitrary
classifier, and all types of attributes (including continuous, ordered, and
unordered discrete). The wide-scale applicability of the framework is validated
on a variety of synthetic and real-world datasets from different domains
(tabular, text, and image).
- Abstract(参考訳): 本稿では,モデル非依存な人間の解釈可能なルールを抽出し,分類器の出力を説明するための新しい枠組みを提案する。
ヒトの解釈可能な規則は、分類決定を説明すべきインスタンスを含む軸方向の超立方体として定義される。
提案手法では, 最大 (high \textit{coverage}) 軸方向の超立方体が, 高立方体内の高割合のインスタンスが説明対象のインスタンスと同じクラスラベルを持つことを示す(high \textit{precision} )。
超キューブイドのパラメータの観点からのカバレッジと精度に関する新しい近似が定義されている。
これらは勾配に基づく最適化によって最大化される。
近似の質は理論的および実験的に厳密に解析される。
より良い解釈性を達成するために生成された説明を単純化するためのヒューリスティックスや、インスタンス空間の大部分をカバーするモデルのグローバル説明を作成するための局所的な説明を組み合わせた欲望選択アルゴリズムも提案されている。
フレームワークはモデル非依存であり、任意の分類器やすべての属性(連続、順序、順序のない離散性を含む)に適用することができる。
フレームワークの広範な適用性は、さまざまなドメイン(表、テキスト、画像)のさまざまな合成および実世界のデータセット上で検証される。
関連論文リスト
- Explaining Datasets in Words: Statistical Models with Natural Language Parameters [66.69456696878842]
本稿では, クラスタリング, 時系列, 分類モデルなど, 自然言語の述語によってパラメータ化される統計モデル群を紹介する。
当社のフレームワークは、ユーザチャット対話の分類、時間の経過とともにどのように進化するかの特徴付け、一方の言語モデルが他方よりも優れているカテゴリを見つけることなど、幅広い問題に適用しています。
論文 参考訳(メタデータ) (2024-09-13T01:40:20Z) - Generating collective counterfactual explanations in score-based
classification via mathematical optimization [4.281723404774889]
インスタンスの反実的な説明は、このインスタンスを最小限に修正して、摂動インスタンスを望ましいクラスに分類する方法を示している。
カウンターファクト・アナリティクスの文献の多くは、単一インスタンスの単一カウントファクト・セッティングに焦点を当てている。
新規な数学的最適化モデルにより、興味ある群における各インスタンスに対する対実的説明を提供する。
論文 参考訳(メタデータ) (2023-10-19T15:18:42Z) - Domain Generalization via Rationale Invariance [70.32415695574555]
本稿では,未確認環境においてもロバストな結果の維持を伴う領域一般化の課題を緩和する新たな視点を提供する。
本稿では,最終結果に対する要素的貢献を決定の根拠として扱い,各試料の根拠を行列として表現することを提案する。
提案手法は, 単純性に拘わらず, 様々なデータセット間で競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2023-08-22T03:31:40Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - An Upper Bound for the Distribution Overlap Index and Its Applications [18.481370450591317]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Soft-margin classification of object manifolds [0.0]
単一対象の複数の出現に対応する神経集団は、神経応答空間における多様体を定義する。
そのような多様体を分類する能力は、オブジェクト認識やその他の計算タスクは多様体内の変数に無関心な応答を必要とするため、興味がある。
ソフトマージン分類器は、より大きなアルゴリズムのクラスであり、トレーニングセット外のパフォーマンスを最適化するためにアプリケーションで使われる追加の正規化パラメータを提供する。
論文 参考訳(メタデータ) (2022-03-14T12:23:36Z) - Causality-based Counterfactual Explanation for Classification Models [11.108866104714627]
本稿では,プロトタイプに基づく対実的説明フレームワーク(ProCE)を提案する。
ProCEは、カウンターファクトデータの特徴の根底にある因果関係を保存することができる。
さらに,提案手法を応用した多目的遺伝的アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-05-03T09:25:59Z) - A Fully Hyperbolic Neural Model for Hierarchical Multi-Class
Classification [7.8176853587105075]
双曲空間は、記号データの階層的表現を学ぶために数学的に魅力的なアプローチを提供する。
本研究は,双曲空間におけるすべての操作を実行する多クラス多ラベル分類のための完全双曲モデルを提案する。
徹底的な分析では、最終予測における各コンポーネントの影響に光を当て、ユークリッド層との統合の容易さを示している。
論文 参考訳(メタデータ) (2020-10-05T14:42:56Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。