論文の概要: MI CAM: Mutual Information Weighted Activation Mapping for Causal Visual Explanations of Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2507.09092v1
- Date: Sat, 12 Jul 2025 00:20:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:22.362442
- Title: MI CAM: Mutual Information Weighted Activation Mapping for Causal Visual Explanations of Convolutional Neural Networks
- Title(参考訳): MI CAM:畳み込みニューラルネットワークの因果的視覚説明のための相互情報重み付き活性化マッピング
- Authors: Ram S Iyer, Narayan S Iyer, Rugmini Ammal P,
- Abstract要約: 本稿では, アクティベーションマッピングに基づくMI CAMと呼ばれる, ポストホックな視覚的説明手法を提案する。
入力画像との相互情報を通じて各特徴マップを重み付けすることで、サリエンシビジュアライゼーションを生成する。
また、反事実分析の助けを借りて検証されるような因果解釈の創出にも固執する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the intervention of machine vision in our crucial day to day necessities including healthcare and automated power plants, attention has been drawn to the internal mechanisms of convolutional neural networks, and the reason why the network provides specific inferences. This paper proposes a novel post-hoc visual explanation method called MI CAM based on activation mapping. Differing from previous class activation mapping based approaches, MI CAM produces saliency visualizations by weighing each feature map through its mutual information with the input image and the final result is generated by a linear combination of weights and activation maps. It also adheres to producing causal interpretations as validated with the help of counterfactual analysis. We aim to exhibit the visual performance and unbiased justifications for the model inferencing procedure achieved by MI CAM. Our approach works at par with all state-of-the-art methods but particularly outperforms some in terms of qualitative and quantitative measures. The implementation of proposed method can be found on https://anonymous.4open.science/r/MI-CAM-4D27
- Abstract(参考訳): 医療や自動発電所などの重要な日中に必要なマシンビジョンの介入により、畳み込みニューラルネットワークの内部メカニズムや、ネットワークが特定の推論を提供する理由に注意が向けられている。
本稿では, アクティベーションマッピングに基づくMI CAMと呼ばれる, ポストホックな視覚的説明手法を提案する。
従来のクラスのアクティベーションマッピングに基づくアプローチと異なり、MI CAMは入力画像との相互情報を通じて各特徴マップを重み付けし、最終的な結果が重み付けとアクティベーションマップの線形結合によって生成される。
また、反事実分析の助けを借りて検証されるような因果解釈の創出にも固執する。
我々はMI CAMによって達成されたモデル推論手順の視覚的性能と曖昧な正当性を示すことを目的としている。
我々の手法はあらゆる最先端の手法と同等に機能するが、質的、定量的な測定では特に優れる。
提案手法の実装はhttps://anonymous.4open.science/r/MI-CAM-4D27で見ることができる。
関連論文リスト
- DecomCAM: Advancing Beyond Saliency Maps through Decomposition and Integration [25.299607743268993]
クラスアクティベーションマップ(CAM)手法は、モデルの意思決定基準を明らかにする領域を強調するが、明確なサリエンシマップと詳細な解釈性は欠如している。
チャネル活性化マップから共有パターンを抽出する新しい分解分解分解法であるDecomCAMを提案する。
実験の結果,DecomCAMは精度を向上するだけでなく,解釈可能性と計算効率のバランスを最適化できることがわかった。
論文 参考訳(メタデータ) (2024-05-29T08:40:11Z) - FM-G-CAM: A Holistic Approach for Explainable AI in Computer Vision [0.6215404942415159]
我々は,コンピュータビジョンモデル,特に畳み込みニューラルネットワーク(CNN)に基づくモデルの予測を理解する必要性を強調した。
既存のCNN予測法は、主にグラディエント重み付きクラスアクティベーションマップ(Grad-CAM)に基づいており、単一のターゲットクラスのみに焦点を当てている。
本稿では,複数の上位予測クラスを考慮したFused Multi-class Gradient-weighted Class Activation Map (FM-G-CAM)を提案する。
論文 参考訳(メタデータ) (2023-12-10T19:33:40Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - TAME: Attention Mechanism Based Feature Fusion for Generating
Explanation Maps of Convolutional Neural Networks [8.395400675921515]
TAME(Trainable Attention Mechanism for Explanations)はマルチブランチ階層型アテンション機構を用いた説明マップを生成する方法である。
TAMEは、アテンションメカニズムのトレーニング方法の最適化を合理化することにより、任意の畳み込みニューラルネットワーク(CNN)に容易に適用できる。
論文 参考訳(メタデータ) (2023-01-18T10:05:28Z) - A kinetic approach to consensus-based segmentation of biomedical images [39.58317527488534]
バイオメディカルセグメンテーション問題に有界信頼度コンセンサスモデルの運動バージョンを適用した。
システムの長時間の挙動は、代理のフォッカー・プランク法(英語版)の助けを借りて計算される。
2次元グレースケール画像の関連集合に対して導入されたセグメンテーション距離を最小化する。
論文 参考訳(メタデータ) (2022-11-08T09:54:34Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - Shap-CAM: Visual Explanations for Convolutional Neural Networks based on
Shapley Value [86.69600830581912]
クラスアクティベーションマッピングに基づくShap-CAMと呼ばれる新しい視覚的説明法を開発した。
我々は,Shap-CAMが意思決定プロセスの解釈において,より良い視覚的性能と公平性を実現することを実証した。
論文 参考訳(メタデータ) (2022-08-07T00:59:23Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - Revisiting The Evaluation of Class Activation Mapping for
Explainability: A Novel Metric and Experimental Analysis [54.94682858474711]
クラスアクティベーションマッピング(cam)アプローチは、アクティベーションマップの平均を重み付けすることで、効果的な可視化を提供する。
説明マップを定量化するための新しいメトリクスセットを提案し、より効果的な方法を示し、アプローチ間の比較を簡素化します。
論文 参考訳(メタデータ) (2021-04-20T21:34:24Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。