論文の概要: Don't be fooled: label leakage in explanation methods and the importance
of their quantitative evaluation
- arxiv url: http://arxiv.org/abs/2302.12893v1
- Date: Fri, 24 Feb 2023 21:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 20:13:24.832671
- Title: Don't be fooled: label leakage in explanation methods and the importance
of their quantitative evaluation
- Title(参考訳): 騙されるな - 説明法におけるラベル漏洩とその定量的評価の重要性
- Authors: Neil Jethani, Adriel Saporta, Rajesh Ranganath
- Abstract要約: クラスに依存したメソッドは、選択したクラスに関する情報を「リーク」し、そのクラスがそれよりも高い確率で現れることを示す。
入力のすべての特徴を考慮し、ラベルの分布をその分布に近づける「分布認識」手法を提案する。
- 参考スコア(独自算出の注目度): 22.245931823030418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature attribution methods identify which features of an input most
influence a model's output. Most widely-used feature attribution methods (such
as SHAP, LIME, and Grad-CAM) are "class-dependent" methods in that they
generate a feature attribution vector as a function of class. In this work, we
demonstrate that class-dependent methods can "leak" information about the
selected class, making that class appear more likely than it is. Thus, an end
user runs the risk of drawing false conclusions when interpreting an
explanation generated by a class-dependent method. In contrast, we introduce
"distribution-aware" methods, which favor explanations that keep the label's
distribution close to its distribution given all features of the input. We
introduce SHAP-KL and FastSHAP-KL, two baseline distribution-aware methods that
compute Shapley values. Finally, we perform a comprehensive evaluation of seven
class-dependent and three distribution-aware methods on three clinical datasets
of different high-dimensional data types: images, biosignals, and text.
- Abstract(参考訳): 特徴属性法は、入力のどの特徴がモデルの出力に最も影響するかを特定する。
最も広く使われている特徴帰属法(SHAP、LIME、Grad-CAMなど)は、機能帰属ベクトルをクラスの関数として生成する「クラス依存」法である。
本研究では,クラス依存型メソッドが選択したクラスに関する情報を「隠す」ことができることを示す。
これにより、クラス依存メソッドによって生成された説明を解釈する際に、エンドユーザは誤った結論を導くリスクを負う。
対照的に,入力のすべての特徴を考慮し,ラベルの分布をその分布に近づける説明を好む「分配認識」手法を導入する。
shap-klとfastshap-klは,shapley値を計算する2つのベースライン分散認識手法である。
最後に, 画像, バイオシグナー, テキストの3種類の高次元データ型の臨床データセットに対して, クラス依存型および分布認識型の7つの手法を総合的に評価する。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - Accurate Explanation Model for Image Classifiers using Class Association Embedding [5.378105759529487]
本稿では,グローバルな知識とローカルな知識の利点を組み合わせた生成的説明モデルを提案する。
クラスアソシエーション埋め込み(CAE)は、各サンプルを1組のクラス関連コードと個別コードにエンコードする。
クラス関連特徴を個々の特徴から効率的に分離するビルディングブロック・コヒーレンシー特徴抽出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-12T07:41:00Z) - Multi-Label Knowledge Distillation [86.03990467785312]
本稿では,新しい多ラベル知識蒸留法を提案する。
一方、マルチラベル学習問題をバイナリ分類問題に分割することにより、ロジットからの情報的意味知識を利用する。
一方,ラベルワイド埋め込みの構造情報を活用することにより,学習した特徴表現の識別性を向上する。
論文 参考訳(メタデータ) (2023-08-12T03:19:08Z) - Shapley Chains: Extending Shapley Values to Classifier Chains [1.1355370218310157]
シェープリー値を用いて意思決定に貢献する手法は、局所的な個人的およびグローバルな予測を説明する最も一般的な手法の1つである。
本稿では, 設計プロセスにラベル相互依存性を含めることで, この問題を克服するシャプリーチェインを提案する。
論文 参考訳(メタデータ) (2023-03-30T09:19:24Z) - Reconnoitering the class distinguishing abilities of the features, to
know them better [6.026640792312181]
説明可能性により、エンドユーザは、機械学習スキームの能力とユーティリティを透過的かつ人間的に参照することができる。
本稿では,これらの特徴をクラスやカテゴリ識別機能に基づいて説明する。
いくつかの実世界のマルチクラスデータセットで実証的に提案手法が与える説明可能性を検証する。
論文 参考訳(メタデータ) (2022-11-23T08:39:41Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Exploring Category-correlated Feature for Few-shot Image Classification [27.13708881431794]
本稿では,従来の知識として,新しいクラスとベースクラスのカテゴリ相関を探索し,シンプルで効果的な特徴補正手法を提案する。
提案手法は, 広く使用されている3つのベンチマークにおいて, 一定の性能向上が得られる。
論文 参考訳(メタデータ) (2021-12-14T08:25:24Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Multi-Class Classification from Single-Class Data with Confidences [90.48669386745361]
本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:38:13Z) - Do Feature Attribution Methods Correctly Attribute Features? [5.58592454173439]
特徴帰属法は、解釈可能な機械学習で非常に人気がある。
属性」の定義に関する合意はありません。
塩分マップ,合理性,注意の3つの方法を評価した。
論文 参考訳(メタデータ) (2021-04-27T20:35:30Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。