論文の概要: Feature CAM: Interpretable AI in Image Classification
- arxiv url: http://arxiv.org/abs/2403.05658v1
- Date: Fri, 8 Mar 2024 20:16:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 13:04:08.776307
- Title: Feature CAM: Interpretable AI in Image Classification
- Title(参考訳): Feature CAM:画像分類における解釈可能なAI
- Authors: Frincy Clement, Ji Yang and Irene Cheng
- Abstract要約: セキュリティ、金融、健康、製造業など、重要かつ高精度な分野で人工知能を使用するという信頼の欠如がある。
本稿では,摂動・活性化の組み合わせに該当する特徴CAM(Feature CAM)を提案する。
その結果, ABMの3~4倍の精度が得られた。
- 参考スコア(独自算出の注目度): 2.4409988934338767
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep Neural Networks have often been called the black box because of the
complex, deep architecture and non-transparency presented by the inner layers.
There is a lack of trust to use Artificial Intelligence in critical and
high-precision fields such as security, finance, health, and manufacturing
industries. A lot of focused work has been done to provide interpretable
models, intending to deliver meaningful insights into the thoughts and behavior
of neural networks. In our research, we compare the state-of-the-art methods in
the Activation-based methods (ABM) for interpreting predictions of CNN models,
specifically in the application of Image Classification. We then extend the
same for eight CNN-based architectures to compare the differences in
visualization and thus interpretability. We introduced a novel technique
Feature CAM, which falls in the perturbation-activation combination, to create
fine-grained, class-discriminative visualizations. The resulting saliency maps
from our experiments proved to be 3-4 times better human interpretable than the
state-of-the-art in ABM. At the same time it reserves machine interpretability,
which is the average confidence scores in classification.
- Abstract(参考訳): ディープニューラルネットワークはしばしば、内部層によって提示される複雑で深いアーキテクチャと非透明性のためにブラックボックスと呼ばれる。
セキュリティ、金融、健康、製造業といった重要かつ高度な分野で人工知能を使用するという信頼が欠落している。
ニューラルネットワークの思考と行動に関する有意義な洞察を提供することを目的として、解釈可能なモデルを提供するために、多くの焦点が当てられている。
本研究では,CNNモデルの予測を解釈するためのアクティベーションベース手法(ABM)の最先端手法を比較し,特に画像分類の適用について述べる。
次に、8つのCNNベースのアーキテクチャを拡張して、可視化と解釈可能性の違いを比較します。
そこで我々は,摂動と活性化の組み合わせに当てはまる新しい手法であるcamを導入し,細粒度でクラス判別的な可視化を行った。
実験結果から得られたサリエンシマップは, ABMの最先端の3~4倍の精度で人間の解釈が可能であることが判明した。
同時に、分類における平均信頼度スコアである機械解釈可能性を保留する。
関連論文リスト
- Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Hierarchical Semantic Tree Concept Whitening for Interpretable Image
Classification [19.306487616731765]
ポストホック分析は、モデルに自然に存在するパターンやルールのみを発見することができる。
我々は、隠された層における人間の理解可能な概念の表現を変えるために、積極的に知識を注入する。
本手法は,モデル分類性能に悪影響を及ぼすことなく,セマンティックな概念の絡み合いを良くし,モデルの解釈可能性を向上させる。
論文 参考訳(メタデータ) (2023-07-10T04:54:05Z) - Revealing Similar Semantics Inside CNNs: An Interpretable Concept-based
Comparison of Feature Spaces [0.0]
安全に重要なアプリケーションは、人工知能コンポーネントの透明性を必要とする。
認識タスクに広く使用される畳み込みニューラルネットワーク(CNN)は、固有の解釈可能性に欠ける。
CNN潜在空間内の意味情報間の階層的類似性を推定する2つの手法を提案する。
論文 参考訳(メタデータ) (2023-04-30T13:53:39Z) - Interpretable part-whole hierarchies and conceptual-semantic
relationships in neural networks [4.153804257347222]
本稿では、視覚的手がかりから部分全体階層を表現できるフレームワークであるAgglomeratorについて述べる。
本研究では,SmallNORB,MNIST,FashionMNIST,CIFAR-10,CIFAR-100などの共通データセットを用いて評価を行った。
論文 参考訳(メタデータ) (2022-03-07T10:56:13Z) - PCACE: A Statistical Approach to Ranking Neurons for CNN
Interpretability [1.0742675209112622]
ネットワークのどの畳み込み層にも隠れたニューロンをランク付けするための新しい統計手法を提案する。
街路画像を用いた大気汚染予測への本手法の実際の応用について述べる。
論文 参考訳(メタデータ) (2021-12-31T17:54:57Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Teaching CNNs to mimic Human Visual Cognitive Process & regularise
Texture-Shape bias [18.003188982585737]
コンピュータビジョンにおける最近の実験は、畳み込みニューラルネットワーク(CNN)を用いたモデルにおいて、テクスチャバイアスが最高の結果の主因であることを実証している。
コスト関数は、CNNが欲張りなアプローチを採り、テクスチャのような局所的な情報に対する生産性を向上させ、その結果、グローバルな統計を探索することができないと信じられている。
画像の再構成と分類に形状,テクスチャ,エッジなどの人間の解釈可能な特徴を活用するために,心理学における特徴統合理論から着想を得た,新しい直感的なアーキテクチャであるCognitiveCNNを提案する。
論文 参考訳(メタデータ) (2020-06-25T22:32:54Z) - Interpretation of 3D CNNs for Brain MRI Data Classification [56.895060189929055]
T1脳MRIにおける拡散テンソル画像の男女差について,これまでの知見を拡張した。
ボクセルの3次元CNN解釈を3つの解釈法の結果と比較する。
論文 参考訳(メタデータ) (2020-06-20T17:56:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。