論文の概要: Simplifying the explanation of deep neural networks with sufficient and
necessary feature-sets: case of text classification
- arxiv url: http://arxiv.org/abs/2010.03724v2
- Date: Sun, 11 Oct 2020 17:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:23:42.421664
- Title: Simplifying the explanation of deep neural networks with sufficient and
necessary feature-sets: case of text classification
- Title(参考訳): 十分かつ必要な特徴集合を用いた深層ニューラルネットワークの説明:テキスト分類の場合
- Authors: Jiechieu Kameni Florentin Flambeau and Tsopze Norbert
- Abstract要約: ディープニューラルネットワーク(DNN)は、医学、ファイナンス、法律など、さまざまな領域で幅広い問題を解決する素晴らしいパフォーマンスを実証している。
彼らの優れたパフォーマンスにもかかわらず、彼らは長い間ブラックボックスシステムと見なされ、それらを説明することができない良い結果をもたらしてきた。
本稿では,1次元(1次元)畳み込みニューラルネットワーク(CNN)の予測説明を,十分かつ必要な特徴セットを同定して単純化する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During the last decade, deep neural networks (DNN) have demonstrated
impressive performances solving a wide range of problems in various domains
such as medicine, finance, law, etc. Despite their great performances, they
have long been considered as black-box systems, providing good results without
being able to explain them. However, the inability to explain a system decision
presents a serious risk in critical domains such as medicine where people's
lives are at stake. Several works have been done to uncover the inner reasoning
of deep neural networks. Saliency methods explain model decisions by assigning
weights to input features that reflect their contribution to the classifier
decision. However, not all features are necessary to explain a model decision.
In practice, classifiers might strongly rely on a subset of features that might
be sufficient to explain a particular decision. The aim of this article is to
propose a method to simplify the prediction explanation of One-Dimensional (1D)
Convolutional Neural Networks (CNN) by identifying sufficient and necessary
features-sets. We also propose an adaptation of Layer-wise Relevance
Propagation for 1D-CNN. Experiments carried out on multiple datasets show that
the distribution of relevance among features is similar to that obtained with a
well known state of the art model. Moreover, the sufficient and necessary
features extracted perceptually appear convincing to humans.
- Abstract(参考訳): 過去10年間、ディープニューラルネットワーク(DNN)は、医学、金融、法律など、さまざまな領域で幅広い問題を解決する素晴らしいパフォーマンスを誇示してきた。
その優れたパフォーマンスにもかかわらず、それらは長い間ブラックボックスシステムと見なされており、それらを説明せずに良い結果を提供する。
しかし、システム決定を説明できないことは、人の命がかかっている医療などの重要な領域に深刻なリスクをもたらす。
ディープニューラルネットワークの内部的推論を明らかにするために、いくつかの研究が行われている。
分類器決定への寄与を反映した入力特徴に重みを割り当てることでモデル決定を説明する。
しかし、すべての機能がモデル決定を説明するために必要ではない。
実際には、分類器は特定の決定を説明するのに十分な機能のサブセットに強く依存するかもしれない。
本稿では,1次元(1次元)畳み込みニューラルネットワーク(CNN)の予測説明を,十分かつ必要な特徴セットを同定して単純化する手法を提案する。
また,1d-cnnに対する層間相関伝播の適応法を提案する。
複数のデータセットで行った実験は、特徴間の関連性の分布が、アートモデルのよく知られた状態で得られたものと類似していることを示している。
さらに、抽出された十分かつ必要な特徴は、人間に説得力があるように見える。
関連論文リスト
- Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - Automated Natural Language Explanation of Deep Visual Neurons with Large
Models [43.178568768100305]
本稿では,大きな基礎モデルを持つニューロンの意味的説明を生成するための,新しいポストホックフレームワークを提案する。
我々のフレームワークは、様々なモデルアーキテクチャやデータセット、自動化されたスケーラブルなニューロン解釈と互換性があるように設計されています。
論文 参考訳(メタデータ) (2023-10-16T17:04:51Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Consistent feature selection for neural networks via Adaptive Group
Lasso [3.42658286826597]
ニューラルネットワークの重要な特徴を選択するための適応型グループの使用に関する理論的保証を提案し,確立する。
具体的には,1つの隠蔽層と双曲的タンジェント活性化関数を持つ単一出力フィードフォワードニューラルネットワークに対して,特徴選択法が整合であることを示す。
論文 参考訳(メタデータ) (2020-05-30T18:50:56Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - On Tractable Representations of Binary Neural Networks [23.50970665150779]
我々は、二項ニューラルネットワークの決定関数を、順序付き二項決定図(OBDD)や意味決定図(SDD)などの抽出可能な表現にコンパイルすることを検討する。
実験では,SDDとしてニューラルネットワークのコンパクトな表現を得ることが可能であることを示す。
論文 参考訳(メタデータ) (2020-04-05T03:21:26Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。