論文の概要: MetaCAM: Ensemble-Based Class Activation Map
- arxiv url: http://arxiv.org/abs/2307.16863v1
- Date: Mon, 31 Jul 2023 17:20:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 13:12:12.264719
- Title: MetaCAM: Ensemble-Based Class Activation Map
- Title(参考訳): metacam:アンサンブルベースのクラスアクティベーションマップ
- Authors: Emily Kaczmarek, Olivier X. Miguel, Alexa C. Bowie, Robin Ducharme,
Alysha L.J. Dingwall-Harvey, Steven Hawken, Christine M. Armour, Mark C.
Walker, Kevin Dick
- Abstract要約: クラスアクティベーションマップ(Class Activation Maps, CAM)は、CNNの視覚的説明法として人気が高まっている。
本稿では,複数の既存CAM手法を組み合わせたアンサンブルに基づくメタCAMを提案する。
メタCAMは既存のCAMよりも優れており、モデル予測に使用される画像の最も健全な領域を洗練している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The need for clear, trustworthy explanations of deep learning model
predictions is essential for high-criticality fields, such as medicine and
biometric identification. Class Activation Maps (CAMs) are an increasingly
popular category of visual explanation methods for Convolutional Neural
Networks (CNNs). However, the performance of individual CAMs depends largely on
experimental parameters such as the selected image, target class, and model.
Here, we propose MetaCAM, an ensemble-based method for combining multiple
existing CAM methods based on the consensus of the top-k% most highly activated
pixels across component CAMs. We perform experiments to quantifiably determine
the optimal combination of 11 CAMs for a given MetaCAM experiment. A new method
denoted Cumulative Residual Effect (CRE) is proposed to summarize large-scale
ensemble-based experiments. We also present adaptive thresholding and
demonstrate how it can be applied to individual CAMs to improve their
performance, measured using pixel perturbation method Remove and Debias (ROAD).
Lastly, we show that MetaCAM outperforms existing CAMs and refines the most
salient regions of images used for model predictions. In a specific example,
MetaCAM improved ROAD performance to 0.393 compared to 11 individual CAMs with
ranges from -0.101-0.172, demonstrating the importance of combining CAMs
through an ensembling method and adaptive thresholding.
- Abstract(参考訳): 深層学習モデル予測の明確で信頼できる説明の必要性は、医学や生体認証などの高臨界分野において不可欠である。
クラスアクティベーションマップ(CAM)は、畳み込みニューラルネットワーク(CNN)の視覚的説明手法として人気が高まっている。
しかし、個々のCAMの性能は、選択された画像、ターゲットクラス、モデルなどの実験パラメータに大きく依存する。
本稿では,コンポーネントカメラ間で最も高活性化された画素のコンセンサスに基づいて,複数の既存カムメソッドを結合するアンサンブルベース手法であるmetacamを提案する。
与えられたMetaCAM実験に対して,11個のCAMの最適組み合わせを定量的に定量化する実験を行った。
大規模アンサンブル実験を要約するために, 累積残留効果(cre)という新しい手法を提案する。
また,適応しきい値設定を行い,個々のCAMに対して,画素摂動法Remove and Debias (ROAD) を用いて測定を行い,その性能を向上させる方法を示す。
最後に、メタCAMは既存のCAMよりも優れており、モデル予測に使用される画像の最も健全な領域を洗練していることを示す。
特定の例では、MetaCAMはROAD性能を0.393に改善し、-0.101-0.172の範囲の11個のCAMと比較した。
関連論文リスト
- BroadCAM: Outcome-agnostic Class Activation Mapping for Small-scale
Weakly Supervised Applications [69.22739434619531]
そこで我々はBroadCAMと呼ばれる結果に依存しないCAMアプローチを提案する。
VOC2012でBroadCAM、WSSSでBCSS-WSSS、WSOLでOpenImages30kを評価することで、BroadCAMは優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-09-07T06:45:43Z) - AME-CAM: Attentive Multiple-Exit CAM for Weakly Supervised Segmentation
on MRI Brain Tumor [20.70840352243769]
本稿では,複数の解像度からアクティベーションマップを抽出し,階層的に集約し,予測精度を向上させる新しいCAM手法であるAME-CAMを提案する。
提案手法をBraTS 2021データセット上で評価し,最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-26T08:24:37Z) - Opti-CAM: Optimizing saliency maps for interpretability [10.122899813335694]
CAMに基づくアイデアとマスキングに基づくアプローチを組み合わせたOpti-CAMを紹介する。
われわれのサリエンシマップは特徴マップを線形に組み合わせたもので、画像ごとに重みが最適化されている。
いくつかのデータセットでは、Opti-CAMは最も関連する分類基準に従って、他のCAMベースのアプローチよりもはるかに優れています。
論文 参考訳(メタデータ) (2023-01-17T16:44:48Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - IL-MCAM: An interactive learning and multi-channel attention
mechanism-based weakly supervised colorectal histopathology image
classification approach [23.520258872268556]
本稿では,注意機構と対話型学習に基づくIL-MCAMフレームワークを提案する。
提案するIL-MCAMフレームワークには,自動学習(AL)と対話学習(IL)の2段階がある。
IL段階において、IL-MCAMフレームワークは、対話的なアプローチでトレーニングセットに非分類画像を連続的に付加し、MCAMモデルの分類能力を向上させる。
論文 参考訳(メタデータ) (2022-06-07T15:03:05Z) - F-CAM: Full Resolution CAM via Guided Parametric Upscaling [20.609010268320013]
クラスアクティベーションマッピング(CAM)メソッドは、最近、弱い教師付きオブジェクトローカライゼーション(WSOL)タスクに多くの注目を集めている。
CAMメソッドは通常、ResNet50のような既製のCNNバックボーンに統合される。
完全分解能CAMを高精度に構築できるCAMのパラメトリックアップスケーリング法を提案する。
論文 参考訳(メタデータ) (2021-09-15T04:45:20Z) - Joint Noise-Tolerant Learning and Meta Camera Shift Adaptation for
Unsupervised Person Re-Identification [60.36551512902312]
unsupervised person re-identification (re-ID) は、ラベルのないデータで識別モデルを学ぶことを目的としている。
一般的な方法としては、クラスタ化によって擬似ラベルを取得し、モデルを最適化するために使用する方法がある。
本稿では,両問題を解決するための統一フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T09:13:06Z) - Use HiResCAM instead of Grad-CAM for faithful explanations of
convolutional neural networks [89.56292219019163]
説明法は意味のある概念を学習し、素早い相関を悪用しないモデルの開発を容易にする。
一般的なニューラルネットワーク説明法であるGrad-CAMの、未認識の制限について説明する。
本稿では,モデルが各予測に使用する場所のみをハイライトするクラス固有の説明手法であるHiResCAMを提案する。
論文 参考訳(メタデータ) (2020-11-17T19:26:14Z) - IS-CAM: Integrated Score-CAM for axiomatic-based explanations [0.0]
本稿では,IS-CAM(Integrated Score-CAM)を提案する。
ILSVRC 2012 Validation データセットからランダムに選択した2000個の画像に対して,IS-CAM の汎用性を検証した。
論文 参考訳(メタデータ) (2020-10-06T21:03:03Z) - Deep Keypoint-Based Camera Pose Estimation with Geometric Constraints [80.60538408386016]
連続するフレームから相対的なカメラのポーズを推定することは、視覚計測の基本的な問題である。
本稿では,検出,特徴抽出,マッチング,外乱除去のための学習可能なモジュールで構成されるエンドツーエンドのトレーニング可能なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-29T21:41:31Z) - VMLoc: Variational Fusion For Learning-Based Multimodal Camera
Localization [46.607930208613574]
本稿では,センサの入力を共通の潜在空間に融合させる,VMLocと呼ばれるエンドツーエンドフレームワークを提案する。
バニラ変分オートエンコーダの目的関数を直接適用する従来のマルチモーダル変分法とは異なり、カメラのローカライゼーションを正確に推定する方法を示す。
論文 参考訳(メタデータ) (2020-03-12T14:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。