論文の概要: Characterizing the Interpretability of Attention Maps in Digital Pathology
- arxiv url: http://arxiv.org/abs/2407.02484v1
- Date: Tue, 2 Jul 2024 17:58:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 14:17:26.449150
- Title: Characterizing the Interpretability of Attention Maps in Digital Pathology
- Title(参考訳): デジタル病理学における注意図の解釈可能性の評価
- Authors: Tomé Albuquerque, Anil Yüce, Markus D. Herrmann, Alvaro Gomariz,
- Abstract要約: 本稿では,デジタル病理学において,注意ネットワークが関連する機能に対応する能力を評価する枠組みを提案する。
人工モデルの共同設立者を作り、専用の解釈可能性メトリクスを使用します。
以上の結果から,AMMILモデルがフレームワーク内で期待どおりに動作していることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpreting machine learning model decisions is crucial for high-risk applications like healthcare. In digital pathology, large whole slide images (WSIs) are decomposed into smaller tiles and tile-derived features are processed by attention-based multiple instance learning (ABMIL) models to predict WSI-level labels. These networks generate tile-specific attention weights, which can be visualized as attention maps for interpretability. However, a standardized evaluation framework for these maps is lacking, questioning their reliability and ability to detect spurious correlations that can mislead models. We herein propose a framework to assess the ability of attention networks to attend to relevant features in digital pathology by creating artificial model confounders and using dedicated interpretability metrics. Models are trained and evaluated on data with tile modifications correlated with WSI labels, enabling the analysis of model sensitivity to artificial confounders and the accuracy of attention maps in highlighting them. Confounders are introduced either through synthetic tile modifications or through tile ablations based on their specific image-based features, with the latter being used to assess more clinically relevant scenarios. We also analyze the impact of varying confounder quantities at both the tile and WSI levels. Our results show that ABMIL models perform as desired within our framework. While attention maps generally highlight relevant regions, their robustness is affected by the type and number of confounders. Our versatile framework has the potential to be used in the evaluation of various methods and the exploration of image-based features driving model predictions, which could aid in biomarker discovery.
- Abstract(参考訳): 医療のようなリスクの高いアプリケーションには、機械学習のモデル決定の解釈が不可欠だ。
デジタル病理学では、大きなスライド画像(WSI)を小さなタイルに分解し、注目に基づくマルチインスタンス学習(ABMIL)モデルを用いて、WSIレベルのラベルを予測する。
これらのネットワークはタイル固有の注意重みを生成し、解釈可能性のための注意マップとして視覚化することができる。
しかし、これらのマップの標準化された評価フレームワークは欠如しており、その信頼性と、モデルを誤解させる可能性のある急激な相関を検出する能力に疑問を呈している。
本稿では,人工的モデル共同設立者を作成し,専用の解釈可能性指標を用いて,注意ネットワークがデジタル病理学の関連機能に対応する能力を評価する枠組みを提案する。
モデルは、WSIラベルと相関したタイル修正データに基づいてトレーニングされ、評価され、人工共同設立者に対するモデル感度の分析と、それらを強調するための注意マップの精度が評価される。
共同設立者は、合成タイルの修正や、特定の画像に基づく特徴に基づくタイルの除去を通じて導入され、後者は、より臨床的に関係のあるシナリオを評価するために使用される。
また、さまざまな共同設立者がタイルレベルとWSIレベルの両方に与える影響を分析します。
以上の結果から,AMMILモデルがフレームワーク内で期待どおりに動作していることが示唆された。
注意マップは一般的に関連地域を強調しているが、その堅牢性は共同設立者のタイプと数に影響を受けている。
我々の汎用フレームワークは, バイオマーカー発見に役立つ様々な手法の評価や, モデル予測を駆動する画像ベースの特徴の探索に活用できる可能性を持っている。
関連論文リスト
- Free Lunch in Pathology Foundation Model: Task-specific Model Adaptation with Concept-Guided Feature Enhancement [18.839406725114042]
概念アンカー誘導型タスク固有特徴強調(CATE)を提案する。
CATEは、特定の下流タスクに対する病理基盤モデルの表現性と識別性を高めることができる。
パブリックなWSIデータセットの実験は、CATEがMILモデルの性能と一般化性を著しく向上させることを示した。
論文 参考訳(メタデータ) (2024-11-15T02:38:00Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - The Importance of Downstream Networks in Digital Pathology Foundation Models [1.689369173057502]
162のアグリゲーションモデル構成を持つ3つの異なるデータセットにまたがる7つの特徴抽出モデルを評価する。
多くの特徴抽出器モデルの性能は顕著に類似していることが判明した。
論文 参考訳(メタデータ) (2023-11-29T16:54:25Z) - Towards the Visualization of Aggregated Class Activation Maps to Analyse
the Global Contribution of Class Features [0.47248250311484113]
クラスアクティベーションマップ(CAM)は、分類に寄与するデータサンプルの各機能の重要性を視覚化する。
複数のサンプルからCAMを集約し,意味的に構造化されたデータの分類のグローバルな説明を示す。
我々のアプローチでは,分析者が高次元データの重要な特徴を検出し,世界的説明の可視化に基づいてAIモデルに調整を導出することができる。
論文 参考訳(メタデータ) (2023-07-29T11:13:11Z) - Temporal Relevance Analysis for Video Action Models [70.39411261685963]
まず,CNNに基づく行動モデルにより捉えたフレーム間の時間的関係を定量化する手法を提案する。
次に、時間的モデリングがどのように影響を受けるかをよりよく理解するために、包括的な実験と詳細な分析を行います。
論文 参考訳(メタデータ) (2022-04-25T19:06:48Z) - A Comprehensive Study of Image Classification Model Sensitivity to
Foregrounds, Backgrounds, and Visual Attributes [58.633364000258645]
このデータセットをRIVAL10と呼びます。
本研究では,前景,背景,属性の騒音劣化に対する幅広いモデルの感度を評価する。
本稿では,多種多様な最先端アーキテクチャ (ResNets, Transformers) とトレーニング手順 (CLIP, SimCLR, DeiT, Adversarial Training) について考察する。
論文 参考訳(メタデータ) (2022-01-26T06:31:28Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Facial Action Unit Intensity Estimation via Semantic Correspondence
Learning with Dynamic Graph Convolution [27.48620879003556]
本稿では,特徴マップ間の意味的対応を確立することによって,AUの潜伏関係を自動的に学習する学習フレームワークを提案する。
熱マップ回帰に基づくネットワークでは、特徴写像はAU強度と位置に関連する豊富な意味情報を保存する。
これはAU強度レベルの共起関係を暗黙的に表す特徴チャネル間の相関をモデル化する動機となっている。
論文 参考訳(メタデータ) (2020-04-20T23:55:30Z) - FDive: Learning Relevance Models using Pattern-based Similarity Measures [27.136998442865217]
FDiveは視覚的に探索可能な関連モデルの作成を支援する視覚的能動学習システムである。
最適な類似度尺度に基づいて、インタラクティブな自己組織化マップベースの関連モデルを算出する。
また、その正確性を改善するために、さらに関連性フィードバックを自動で促す。
論文 参考訳(メタデータ) (2019-07-29T15:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。