論文の概要: Leveraging CAM Algorithms for Explaining Medical Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2409.20287v1
- Date: Mon, 30 Sep 2024 13:43:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-02 10:12:47.518000
- Title: Leveraging CAM Algorithms for Explaining Medical Semantic Segmentation
- Title(参考訳): 医用セマンティックセグメンテーションのためのCAMアルゴリズムの活用
- Authors: Tillmann Rheude, Andreas Wirtz, Arjan Kuijper, Stefan Wesarg,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、近年のセグメンテーションタスクにおいて、一般的な結果を実現している。
CNNを解釈する1つの方法は、ヒートマップを表すクラスアクティベーションマップ(CAM)を使用することである。
本稿では,既存の分類法とセグメンテーションに基づく手法の間で,より詳細で説明可能な,一貫性のある結果の転送を提案する。
- 参考スコア(独自算出の注目度): 4.818865062632567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) achieve prevailing results in segmentation tasks nowadays and represent the state-of-the-art for image-based analysis. However, the understanding of the accurate decision-making process of a CNN is rather unknown. The research area of explainable artificial intelligence (xAI) primarily revolves around understanding and interpreting this black-box behavior. One way of interpreting a CNN is the use of class activation maps (CAMs) that represent heatmaps to indicate the importance of image areas for the prediction of the CNN. For classification tasks, a variety of CAM algorithms exist. But for segmentation tasks, only one CAM algorithm for the interpretation of the output of a CNN exist. We propose a transfer between existing classification- and segmentation-based methods for more detailed, explainable, and consistent results which show salient pixels in semantic segmentation tasks. The resulting Seg-HiRes-Grad CAM is an extension of the segmentation-based Seg-Grad CAM with the transfer to the classification-based HiRes CAM. Our method improves the previously-mentioned existing segmentation-based method by adjusting it to recently published classification-based methods. Especially for medical image segmentation, this transfer solves existing explainability disadvantages.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、近年のセグメンテーションタスクにおいて、画像ベース分析の最先端を表現している。
しかし、CNNの正確な意思決定プロセスの理解はよく分かっていない。
説明可能な人工知能(xAI)の研究領域は、主にこのブラックボックスの振る舞いを理解し解釈することに集中している。
CNNを解釈する一つの方法は、CNNの予測に画像領域の重要性を示すヒートマップを表すクラスアクティベーションマップ(CAM)を使用することである。
分類タスクには、様々なCAMアルゴリズムが存在する。
しかし、セグメンテーションタスクでは、CNNの出力を解釈するCAMアルゴリズムは1つしか存在しない。
本稿では, セグメンテーションタスクにおいて, より詳細に説明可能な, 一貫性のある結果を示すために, 既存の分類法とセグメンテーションに基づく手法の相互変換を提案する。
Seg-HiRes-Grad CAMはセグメンテーションベースのSeg-Grad CAMの拡張であり、分類ベースのHiRes CAMに転送される。
提案手法は,最近公開された分類に基づく手法に適応することで,既存のセグメント化手法を改良する。
特に医用画像のセグメンテーションにおいて、この転送は既存の説明可能性の欠点を解消する。
関連論文リスト
- An Explainable Model-Agnostic Algorithm for CNN-based Biometrics
Verification [55.28171619580959]
本稿では,生体認証環境下でのLIME(Local Interpretable Model-Agnostic Explanations)AI手法の適用について述べる。
論文 参考訳(メタデータ) (2023-07-25T11:51:14Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Learning Visual Explanations for DCNN-Based Image Classifiers Using an
Attention Mechanism [8.395400675921515]
L-CAM-FmとL-CAM-Imgと呼ばれる、深層畳み込みニューラルネットワーク(DCNN)画像分類のための2つの新しい学習ベースAI(XAI)手法を提案する。
どちらの手法も、元の(凍結した)DCNNに挿入される注意機構を使用し、最後の畳み込み層の特徴写像からクラス活性化マップ(CAM)を導出するように訓練されている。
ImageNet上での実験評価により,提案手法は推論段階で1回の前方通過を必要としながら,競合する結果が得られることが示された。
論文 参考訳(メタデータ) (2022-09-22T17:33:18Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - A Sneak Attack on Segmentation of Medical Images Using Deep Neural
Network Classifiers [0.0]
我々は、セグメンテーション問題にアプローチするために、訓練された畳み込みニューラルネットワーク(CNN)分類器を使用する。
勾配重み付きクラス活性化マッピング(Grad-CAM)によるヒートマップの可視化と生成
以上の結果から,温熱マップは部分腫瘍部位の特定と分画が可能であることが示唆された。
論文 参考訳(メタデータ) (2022-01-08T05:57:26Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - Towards Learning Spatially Discriminative Feature Representations [26.554140976236052]
組込み特徴写像をクラスアクティベーションマップ(CAM)に制約する新しい損失関数(CAM-loss)を提案する。
CAM-lossはバックボーンを駆動し、ターゲットカテゴリの特徴を表現し、ターゲット以外のカテゴリやバックグラウンドの特徴を抑圧する。
実験の結果, CAM-lossは様々なネットワーク構造に適用可能であり, 画像分類の性能向上のために, 主流の正規化手法と組み合わせることができることがわかった。
論文 参考訳(メタデータ) (2021-09-03T08:04:17Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Region Growing with Convolutional Neural Networks for Biomedical Image
Segmentation [1.5469452301122177]
本稿では,各座標方向の予測マスク領域を反復的に成長させることにより,畳み込みニューラルネットワーク(CNN)を用いてセグメンテーションを行う手法を提案する。
我々は、CNNの確率スコアのしきい値を用いて、その領域にピクセルが追加され、その領域に新しいピクセルが加わらないまで繰り返し続けるかどうかを判定する。
本手法は,少量のトレーニングデータを活用するとともに,計算効率を保ちながら,高いセグメンテーション精度を達成し,生物学的に現実的な形態的特徴を維持できる。
論文 参考訳(メタデータ) (2020-09-23T17:53:00Z) - Towards Interpretable Semantic Segmentation via Gradient-weighted Class
Activation Mapping [71.91734471596432]
本稿では,セマンティックセグメンテーションの解法としてSEG-GRAD-CAMを提案する。
本手法は,各画素のセグメンテーションに対する関連性を示すヒートマップを作成するために局所的に適用された広く使われているGrad-CAM法の拡張である。
論文 参考訳(メタデータ) (2020-02-26T12:32:40Z) - Edge-Gated CNNs for Volumetric Semantic Segmentation of Medical Images [11.098969286372778]
医用画像では、専門家の手動セグメンテーションはしばしば臓器の境界に依存する。
既存のエンコーダ・デコーダアーキテクチャで使用可能な,Edge-Gated CNN (EG-CNN) と呼ばれるプラグイン・アンド・プレイモジュールを提案する。
各種CNNを用いたEG-CNNの有効性を2つの公開データセット上で評価した。
論文 参考訳(メタデータ) (2020-02-11T05:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。