論文の概要: Evaluating Attribution Methods using White-Box LSTMs
- arxiv url: http://arxiv.org/abs/2010.08606v1
- Date: Fri, 16 Oct 2020 19:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 20:12:44.708423
- Title: Evaluating Attribution Methods using White-Box LSTMs
- Title(参考訳): ホワイトボックスLSTMを用いた属性評価
- Authors: Yiding Hao
- Abstract要約: ニューラルネットワークの解釈可能性の手法は、一般にテストに使用されるブラックボックスモデルを理解していないため、評価が難しい。
本稿では,ホワイトボックスネットワークと呼ばれる手作業で構築したネットワークを用いて,解釈可能性の評価を行うフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.043512163406551986
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpretability methods for neural networks are difficult to evaluate
because we do not understand the black-box models typically used to test them.
This paper proposes a framework in which interpretability methods are evaluated
using manually constructed networks, which we call white-box networks, whose
behavior is understood a priori. We evaluate five methods for producing
attribution heatmaps by applying them to white-box LSTM classifiers for tasks
based on formal languages. Although our white-box classifiers solve their tasks
perfectly and transparently, we find that all five attribution methods fail to
produce the expected model explanations.
- Abstract(参考訳): ニューラルネットワークの解釈可能性の手法は、テストに一般的に使用されるブラックボックスモデルが理解できないため、評価が難しい。
本稿では,ホワイトボックスネットワークと呼ばれる手作業で構築したネットワークを用いて解釈可能性を評価する手法を提案する。
形式言語に基づくタスクに対するホワイトボックスLSTM分類器に適用することにより、属性ヒートマップを生成する5つの方法を評価する。
我々のホワイトボックス分類器はタスクを完璧かつ透過的に解決するが、5つの帰属法は全て期待されるモデル説明を生成できない。
関連論文リスト
- A Fixed-Point Approach to Unified Prompt-Based Counting [51.20608895374113]
本研究の目的は,ボックス,ポイント,テキストなど,さまざまなプロンプト型で示されるオブジェクトの密度マップを生成することができる包括的プロンプトベースのカウントフレームワークを確立することである。
本モデルは,クラスに依存しない顕著なデータセットに優れ,データセット間の適応タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-15T12:05:44Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Locally Aggregated Feature Attribution on Natural Language Model
Understanding [12.233103741197334]
Locally Aggregated Feature Attribution (LAFA) は、NLPモデルのための新しい勾配に基づく特徴属性法である。
あいまいな参照トークンに頼る代わりに、言語モデル埋め込みから派生した類似参照テキストを集約することで勾配を円滑にする。
評価のために、公開データセット上でのエンティティ認識やセンチメント分析を含む異なるNLPタスクの実験も設計する。
論文 参考訳(メタデータ) (2022-04-22T18:59:27Z) - Interpretable Concept-based Prototypical Networks for Few-Shot Learning [4.594159253008448]
少数のショット学習は、限られたサンプルを持つクラスから新しいインスタンスを認識することを目的としている。
人間の解釈可能な概念の集合に基づくFSLの手法を提案する。
概念に関連した距離空間の集合を構築し、概念固有の決定を集約することで、新しいクラスのサンプルを分類する。
論文 参考訳(メタデータ) (2022-02-27T23:13:13Z) - Consistent Explanations by Contrastive Learning [15.80891456718324]
Grad-CAMのようなポストホック評価技術により、人間は特定のネットワーク決定に責任のある空間領域を検査することができる。
より一貫した説明を生み出すためにモデルをトレーニングするための新しいトレーニング手法を提案する。
提案手法であるContrastive Grad-CAM Consistency (CGC) は,人間のアノテーションと一致したGrad-CAM解釈熱マップを生成する。
論文 参考訳(メタデータ) (2021-10-01T16:49:16Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - White Box Methods for Explanations of Convolutional Neural Networks in
Image Classification Tasks [3.3959642559854357]
畳み込みニューラルネットワーク(CNN)は,画像分類作業における技術性能の状態を実証している。
ネットワークによる予測の背後にある推論を理解するために、いくつかのアプローチが提案されている。
我々は、ネットワークの内部アーキテクチャの情報を利用してその決定を説明するホワイトボックスメソッドに重点を置いている。
論文 参考訳(メタデータ) (2021-04-06T14:40:00Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Making Neural Networks Interpretable with Attribution: Application to
Implicit Signals Prediction [11.427019313283997]
本稿では,属性処理のための解釈可能なディープニューラルネットワークの新たな定式化を提案する。
マスク付きの重量を使って隠れた特徴を深く評価し、いくつかの入力制限されたサブネットワークに分割し、専門家の強化された混合として訓練する。
論文 参考訳(メタデータ) (2020-08-26T06:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。