論文の概要: Explaining Deep Convolutional Neural Networks for Image Classification
by Evolving Local Interpretable Model-agnostic Explanations
- arxiv url: http://arxiv.org/abs/2211.15143v1
- Date: Mon, 28 Nov 2022 08:56:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 16:35:28.717045
- Title: Explaining Deep Convolutional Neural Networks for Image Classification
by Evolving Local Interpretable Model-agnostic Explanations
- Title(参考訳): 局所解釈可能なモデル非依存な説明による画像分類のための深層畳み込みニューラルネットワークの説明
- Authors: Bin Wang, Wenbin Pei, Bing Xue, Mengjie Zhang
- Abstract要約: 提案手法はモデルに依存しない、すなわち、深い畳み込みニューラルネットワークモデルを説明するために利用することができる。
ImageNetからランダムに選択された4つの画像の進化した局所的説明を示す。
提案手法は,LIMEの10倍以上高速な局所的な説明を1分以内で得ることができる。
- 参考スコア(独自算出の注目度): 7.474973880539888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep convolutional neural networks have proven their effectiveness, and have
been acknowledged as the most dominant method for image classification.
However, a severe drawback of deep convolutional neural networks is poor
explainability. Unfortunately, in many real-world applications, users need to
understand the rationale behind the predictions of deep convolutional neural
networks when determining whether they should trust the predictions or not. To
resolve this issue, a novel genetic algorithm-based method is proposed for the
first time to automatically evolve local explanations that can assist users to
assess the rationality of the predictions. Furthermore, the proposed method is
model-agnostic, i.e., it can be utilised to explain any deep convolutional
neural network models. In the experiments, ResNet is used as an example model
to be explained, and the ImageNet dataset is selected as the benchmark dataset.
DenseNet and MobileNet are further explained to demonstrate the model-agnostic
characteristic of the proposed method. The evolved local explanations on four
images, randomly selected from ImageNet, are presented, which show that the
evolved local explanations are straightforward to be recognised by humans.
Moreover, the evolved explanations can explain the predictions of deep
convolutional neural networks on all four images very well by successfully
capturing meaningful interpretable features of the sample images. Further
analysis based on the 30 runs of the experiments exhibits that the evolved
local explanations can also improve the probabilities/confidences of the deep
convolutional neural network models in making the predictions. The proposed
method can obtain local explanations within one minute, which is more than ten
times faster than LIME (the state-of-the-art method).
- Abstract(参考訳): 深層畳み込みニューラルネットワークはその有効性を証明し、画像分類の最も有力な方法として認識されている。
しかし、深層畳み込みニューラルネットワークの深刻な欠点は説明可能性の低下である。
残念ながら、多くの現実世界のアプリケーションでは、ユーザーは予測を信頼すべきかどうかを決定する際に、深い畳み込みニューラルネットワークの予測の背後にある根拠を理解する必要がある。
この問題を解決するために,局所的な説明を自動的に進化させ,ユーザが予測の合理性を評価するのに役立つ新しい遺伝的アルゴリズムに基づく手法を提案する。
さらに,提案手法はモデルに依存しない,すなわち深い畳み込みニューラルネットワークモデルを説明するために利用できる。
実験では、ResNetがサンプルモデルとして使用され、ImageNetデータセットがベンチマークデータセットとして選択される。
densenet と mobilenet はさらに説明され,提案手法のモデル非依存な特性を示す。
ImageNetからランダムに選択された4つの画像上の進化した局所的説明は、進化した局所的説明が人間によって容易に認識されることを示す。
さらに、進化した説明は、サンプル画像の有意義な解釈可能な特徴をうまく捉えることで、4つの画像の全ての深部畳み込みニューラルネットワークの予測をうまく説明することができる。
実験の30回の実行に基づくさらなる分析により、進化した局所的な説明は、予測を行う際の深層畳み込みニューラルネットワークモデルの確率/確信を向上させることができることが示された。
提案手法は,lime (state-of-the-art method) の10倍以上の速度で局所的な説明が得られる。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - On the Convergence of Locally Adaptive and Scalable Diffusion-Based Sampling Methods for Deep Bayesian Neural Network Posteriors [2.3265565167163906]
ベイズニューラルネットワークは、ディープニューラルネットワークにおける不確実性をモデル化するための有望なアプローチである。
ニューラルネットワークの 後部分布からサンプルを生成することは 大きな課題です
この方向の進歩の1つは、モンテカルロ・マルコフ連鎖サンプリングアルゴリズムへの適応的なステップサイズの導入である。
本稿では,これらの手法が,ステップサイズやバッチサイズが小さくても,サンプリングした分布にかなりの偏りがあることを実証する。
論文 参考訳(メタデータ) (2024-03-13T15:21:14Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - On Modifying a Neural Network's Perception [3.42658286826597]
本研究では,人間の定義した概念に対して,人工ニューラルネットワークが知覚しているものを修正する手法を提案する。
提案手法を異なるモデルで検証し、実行された操作がモデルによって適切に解釈されているかどうかを評価し、それらに対してどのように反応するかを解析する。
論文 参考訳(メタデータ) (2023-03-05T12:09:37Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Ada-SISE: Adaptive Semantic Input Sampling for Efficient Explanation of
Convolutional Neural Networks [26.434705114982584]
畳み込みニューラルネットワークの効率的な解釈手法を提案する。
実験の結果,提案手法は実行時間を最大30%削減できることがわかった。
論文 参考訳(メタデータ) (2021-02-15T19:10:00Z) - Generate and Verify: Semantically Meaningful Formal Analysis of Neural
Network Perception Systems [2.2559617939136505]
ニューラルネットワーク認識システムの精度を評価するためにテストが続けられている。
我々は、モデルが常に基底真理に結びついたある誤差内で推定を生成することを証明するために、ニューラルネットワークの検証を用いる。
論文 参考訳(メタデータ) (2020-12-16T23:09:53Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。