論文の概要: From Interpretable Filters to Predictions of Convolutional Neural
Networks with Explainable Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2207.12958v1
- Date: Tue, 26 Jul 2022 15:05:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 13:12:42.971528
- Title: From Interpretable Filters to Predictions of Convolutional Neural
Networks with Explainable Artificial Intelligence
- Title(参考訳): 解釈可能なフィルタから説明可能な人工知能を用いた畳み込みニューラルネットワークの予測へ
- Authors: Shagufta Henna, Juan Miguel Lopez Alcaraz
- Abstract要約: 我々は,コビッド19と非コビッド19の分類に使用されるcnnexplainと呼ばれるCNNモデルの説明可能性に注目した。
我々は、可視化、SmoothGrad、Grad-CAM、LIMEなど、さまざまな説明可能な人工知能(XAI)の手法を用いて、畳み込みフィルタの解釈を行っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNN) are known for their excellent feature
extraction capabilities to enable the learning of models from data, yet are
used as black boxes. An interpretation of the convolutional filtres and
associated features can help to establish an understanding of CNN to
distinguish various classes. In this work, we focus on the explainability of a
CNN model called as cnnexplain that is used for Covid-19 and non-Covid-19
classification with a focus on the interpretability of features by the
convolutional filters, and how these features contribute to classification.
Specifically, we have used various explainable artificial intelligence (XAI)
methods, such as visualizations, SmoothGrad, Grad-CAM, and LIME to provide
interpretation of convolutional filtres, and relevant features, and their role
in classification. We have analyzed the explanation of these methods for
Covid-19 detection using dry cough spectrograms. Explanation results obtained
from the LIME, SmoothGrad, and Grad-CAM highlight important features of
different spectrograms and their relevance to classification.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、データからモデルの学習を可能にする優れた特徴抽出能力で知られているが、ブラックボックスとして使用される。
畳み込みフィルトレーと関連する特徴の解釈は、様々なクラスを区別するcnnの理解を確立するのに役立つ。
本研究では,コビッド19および非コビッド19分類に使用されるcnnexplainと呼ばれるCNNモデルの,畳み込みフィルタによる特徴の解釈可能性に着目し,これらの特徴が分類にどのように貢献するかを考察する。
具体的には,様々な説明可能な人工知能(xai)手法(可視化,スムースグレード,グラッドカム,ライムなど)を用いて,畳み込みフィルトレーと関連する特徴の解釈と分類における役割について検討した。
ドライ・コー・スペクトログラムを用いたCovid-19検出法の解析を行った。
ライム, スムースグレード, グレードカムから得られた説明結果は, 異なる分光図の重要な特徴と分類との関連を強調する。
関連論文リスト
- Linking in Style: Understanding learned features in deep learning models [0.0]
畳み込みニューラルネットワーク(CNN)は抽象的な特徴を学び、オブジェクト分類を行う。
本稿では,CNNにおける学習特徴を可視化し,体系的に解析する自動手法を提案する。
論文 参考訳(メタデータ) (2024-09-25T12:28:48Z) - Unveiling the Unseen: Identifiable Clusters in Trained Depthwise
Convolutional Kernels [56.69755544814834]
深部分離型畳み込みニューラルネットワーク(DS-CNN)の最近の進歩は、新しいアーキテクチャをもたらす。
本稿では,DS-CNNアーキテクチャのもう一つの顕著な特性を明らかにする。
論文 参考訳(メタデータ) (2024-01-25T19:05:53Z) - PICNN: A Pathway towards Interpretable Convolutional Neural Networks [12.31424771480963]
フィルタと画像のクラス間の絡み合いを軽減する新しい経路を導入する。
我々はBernoulliサンプリングを用いて、学習可能なフィルタクラス対応行列からフィルタクラスタ割り当て行列を生成する。
提案手法の有効性を,広く使用されている10のネットワークアーキテクチャ上で評価する。
論文 参考訳(メタデータ) (2023-12-19T11:36:03Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - Demystifying CNNs for Images by Matched Filters [13.121514086503591]
畳み込みニューラルネットワーク(CNN)は、ビッグデータ時代のインテリジェントマシンのアプローチと使用方法に革命をもたらしています。
CNNは、そのテキストブラックボックスの性質と、その操作の理論的サポートと物理的意味の欠如により、精査されている。
本稿では,マッチングフィルタリングの観点を用いて,CNNの動作を復調する手法を提案する。
論文 参考訳(メタデータ) (2022-10-16T12:39:17Z) - Visual Explanations for Convolutional Neural Networks via Latent
Traversal of Generative Adversarial Networks [17.475341881835355]
本稿では、GAN(Generative Adversarial Networks)を利用して、畳み込みニューラルネットワーク(CNN)が学んだことを解釈する手法を提案する。
我々のGANフレームワークは、新型コロナウイルスの特徴から肺の構造を切り離す。このGANを用いて、GANの潜伏した空間で補間することにより、胸部X線写真中の一対の陰性肺からCOVID陽性肺への移行を可視化することができる。
論文 参考訳(メタデータ) (2021-10-29T23:26:09Z) - Interpretable Compositional Convolutional Neural Networks [20.726080433723922]
本稿では,従来の畳み込みニューラルネットワーク(CNN)を解釈可能な合成CNNに変換する手法を提案する。
合成CNNでは、各フィルタは、明確な意味を持つ特定の合成対象部分または画像領域を一貫して表現することになっている。
我々の手法は様々な種類のCNNに適用できる。
論文 参考訳(メタデータ) (2021-07-09T15:01:24Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z) - A Systematic Evaluation: Fine-Grained CNN vs. Traditional CNN
Classifiers [54.996358399108566]
本稿では,大規模分類データセット上でトップノーチ結果を示すランドマーク一般的なCNN分類器の性能について検討する。
最先端のきめ細かい分類器と比較する。
実験において, 粒度の細かい分類器がベースラインを高められるかどうかを判定するために, 6つのデータセットについて広範囲に評価する。
論文 参考訳(メタデータ) (2020-03-24T23:49:14Z) - Learning Class Regularized Features for Action Recognition [68.90994813947405]
本稿では,階層活性化のクラスベース正規化を行うクラス正規化手法を提案する。
動作認識に最先端CNNアーキテクチャのクラス正規化ブロックを用いることで,Kineetics,UCF-101,HMDB-51データセットにおいて,それぞれ1.8%,1.2%,1.4%の体系的改善が得られた。
論文 参考訳(メタデータ) (2020-02-07T07:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。