論文の概要: Soft-CAM: Making black box models self-explainable for high-stakes decisions
- arxiv url: http://arxiv.org/abs/2505.17748v1
- Date: Fri, 23 May 2025 11:15:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:34.024442
- Title: Soft-CAM: Making black box models self-explainable for high-stakes decisions
- Title(参考訳): ソフトCAM:ブラックボックスモデルを自己説明可能に
- Authors: Kerol Djoumessi, Philipp Berens,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は医学のような高度な応用に広く使われており、しばしば人間のパフォーマンスを上回っている。
ほとんどの説明法は、既に訓練されたブラックボックスモデルの意思決定プロセスを近似して、ポストホックの帰属に依存している。
我々は、標準CNNアーキテクチャを本質的に解釈可能なものにする、単純で効果的なアプローチであるSoftCAMを紹介する。
- 参考スコア(独自算出の注目度): 6.635611625764804
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) are widely used for high-stakes applications like medicine, often surpassing human performance. However, most explanation methods rely on post-hoc attribution, approximating the decision-making process of already trained black-box models. These methods are often sensitive, unreliable, and fail to reflect true model reasoning, limiting their trustworthiness in critical applications. In this work, we introduce SoftCAM, a straightforward yet effective approach that makes standard CNN architectures inherently interpretable. By removing the global average pooling layer and replacing the fully connected classification layer with a convolution-based class evidence layer, SoftCAM preserves spatial information and produces explicit class activation maps that form the basis of the model's predictions. Evaluated on three medical datasets, SoftCAM maintains classification performance while significantly improving both the qualitative and quantitative explanation compared to existing post-hoc methods. Our results demonstrate that CNNs can be inherently interpretable without compromising performance, advancing the development of self-explainable deep learning for high-stakes decision-making.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は医学のような高度な応用に広く使われており、しばしば人間のパフォーマンスを上回っている。
しかし、ほとんどの説明法はポストホックの帰属に依存しており、すでに訓練されたブラックボックスモデルの意思決定過程を近似している。
これらの手法は、しばしば敏感で信頼性がなく、真のモデル推論を反映できず、重要なアプリケーションにおける信頼性を制限します。
本稿では,標準的なCNNアーキテクチャを本質的に解釈可能なものにする,単純かつ効果的なアプローチであるSoftCAMを紹介する。
グローバル平均プール層を除去し、完全に接続された分類層を畳み込みに基づくクラスエビデンス層に置き換えることで、SoftCAMは空間情報を保存し、モデルの予測の基礎となる明示的なクラスアクティベーションマップを生成する。
3つの医学データセットに基づいて評価され、SoftCAMは分類性能を維持しながら、既存のポストホック法と比較して質的、定量的な説明の両方を著しく改善している。
以上の結果から,CNNは性能を損なうことなく本質的に解釈可能であることが示唆された。
関連論文リスト
- FM-G-CAM: A Holistic Approach for Explainable AI in Computer Vision [0.6215404942415159]
我々は,コンピュータビジョンモデル,特に畳み込みニューラルネットワーク(CNN)に基づくモデルの予測を理解する必要性を強調した。
既存のCNN予測法は、主にグラディエント重み付きクラスアクティベーションマップ(Grad-CAM)に基づいており、単一のターゲットクラスのみに焦点を当てている。
本稿では,複数の上位予測クラスを考慮したFused Multi-class Gradient-weighted Class Activation Map (FM-G-CAM)を提案する。
論文 参考訳(メタデータ) (2023-12-10T19:33:40Z) - BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - Boosting Low-Data Instance Segmentation by Unsupervised Pre-training
with Saliency Prompt [103.58323875748427]
この研究は、低データ体制のための新しい教師なし事前学習ソリューションを提供する。
近年のPrompting技術の成功に触発されて,QEISモデルを強化した新しい事前学習手法を導入する。
実験結果から,本手法は3つのデータセット上でのいくつかのQEISモデルを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2023-02-02T15:49:03Z) - Model Doctor: A Simple Gradient Aggregation Strategy for Diagnosing and
Treating CNN Classifiers [33.82339346293966]
畳み込みニューラルネットワーク(CNN)は,分類タスクにおいて優れた性能を発揮する。
CNNは、予測メカニズムを理解するのが難しい「ブラックボックス」と見なされていることが広く知られている。
本稿では,モデルドクターと呼ばれる,最初の完全自動診断・治療ツールを提案する。
論文 参考訳(メタデータ) (2021-12-09T14:05:00Z) - Localized Perturbations For Weakly-Supervised Segmentation of Glioma
Brain Tumours [0.5801621787540266]
本研究は,脳腫瘍のセグメンテーションマスクを事前訓練した3次元分類モデルから抽出するための,局所摂動を弱教師付きソリューションとして用いることを提案する。
また,U-netアーキテクチャを用いて,任意の分類において最も関連性の高い領域を見つけるために,3次元スーパーピクセルを利用する新しい摂動法を提案する。
論文 参考訳(メタデータ) (2021-11-29T21:01:20Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Eigen-CAM: Class Activation Map using Principal Components [1.2691047660244335]
この論文は、解釈可能で堅牢で透明なモデルに対する需要の増加に対応するために、従来の考え方に基づいている。
提案したEigen-CAMは、畳み込み層から学習した特徴/表現の基本的なコンポーネントを計算し、視覚化する。
論文 参考訳(メタデータ) (2020-08-01T17:14:13Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z) - Rectified Meta-Learning from Noisy Labels for Robust Image-based Plant
Disease Diagnosis [64.82680813427054]
植物病は食料安全保障と作物生産に対する主要な脅威の1つである。
1つの一般的なアプローチは、葉画像分類タスクとしてこの問題を変換し、強力な畳み込みニューラルネットワーク(CNN)によって対処できる。
本稿では,正規化メタ学習モジュールを共通CNNパラダイムに組み込んだ新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-17T09:51:30Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。