論文の概要: Toward Scalable and Unified Example-based Explanation and Outlier
Detection
- arxiv url: http://arxiv.org/abs/2011.05577v3
- Date: Sun, 8 May 2022 10:11:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:35:36.770197
- Title: Toward Scalable and Unified Example-based Explanation and Outlier
Detection
- Title(参考訳): スケーラブルで統一されたサンプルベース説明と異常検出に向けて
- Authors: Penny Chong, Ngai-Man Cheung, Yuval Elovici, Alexander Binder
- Abstract要約: 我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
- 参考スコア(独自算出の注目度): 128.23117182137418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When neural networks are employed for high-stakes decision-making, it is
desirable that they provide explanations for their prediction in order for us
to understand the features that have contributed to the decision. At the same
time, it is important to flag potential outliers for in-depth verification by
domain experts. In this work we propose to unify two differing aspects of
explainability with outlier detection. We argue for a broader adoption of
prototype-based student networks capable of providing an example-based
explanation for their prediction and at the same time identify regions of
similarity between the predicted sample and the examples. The examples are real
prototypical cases sampled from the training set via our novel iterative
prototype replacement algorithm. Furthermore, we propose to use the prototype
similarity scores for identifying outliers. We compare performances in terms of
the classification, explanation quality, and outlier detection of our proposed
network with other baselines. We show that our prototype-based networks beyond
similarity kernels deliver meaningful explanations and promising outlier
detection results without compromising classification accuracy.
- Abstract(参考訳): ニューラルネットワークを高い意思決定に使用する場合には,その決定に寄与する特徴を理解するために,その予測に関する説明を提供することが望ましい。
同時に、ドメインエキスパートによる詳細な検証のために潜在的な外れ値にフラグを付けることも重要です。
本研究では,外乱検出による説明可能性の異なる2つの側面を統合することを提案する。
我々は,プロトタイプベースの学生ネットワークを広く採用し,その予測についてサンプルベースで説明できると同時に,予測したサンプルとサンプルとの類似性領域を識別できることを議論する。
この例は,新しい反復型プロトタイプ置換アルゴリズムを用いて,トレーニングセットからサンプルした実際のプロトタイプケースである。
さらに,プロトタイプの類似度スコアを用いて,外れ値の同定を行う。
提案するネットワークを他のベースラインと比較し,分類,説明品質,外乱検出の点で性能を比較した。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と予測外乱検出結果が得られることを示す。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Learning to Select Prototypical Parts for Interpretable Sequential Data
Modeling [7.376829794171344]
本稿では,原型概念の線形結合を用いた自己説明選択モデル(SESM)を提案する。
より良い解釈可能性を得るために,多様性,安定性,局所性など,複数の制約をトレーニング対象として設計する。
論文 参考訳(メタデータ) (2022-12-07T01:42:47Z) - A Novel Explainable Out-of-Distribution Detection Approach for Spiking
Neural Networks [6.100274095771616]
この研究は、スパイキングニューラルネットワークに入力されたテスト例がトレーニングされたデータの分布に属するかどうかを識別できる新しいOoD検出器を提案する。
我々は、スパイクカウントパターンの形で、ネットワークの隠蔽層の内部活性化を特徴付ける。
入力インスタンスのどの部分が最もOoDサンプルとして検出されるかを明らかにする属性マップを作成するために,局所的な説明法が考案された。
論文 参考訳(メタデータ) (2022-09-30T11:16:35Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Unsupervised Anomaly Detection From Semantic Similarity Scores [0.0]
本稿では,意味的類似度スコアを用いて異常検出を行う,シンプルで汎用的なフレームワークSemSADを提案する。
視覚領域における異常、新規性、アウト・オブ・ディストリビューション検出に対する従来のアプローチを大きなマージンで上回ることができる。
論文 参考訳(メタデータ) (2020-12-01T13:12:31Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。