論文の概要: Explaining Digital Pathology Models via Clustering Activations
- arxiv url: http://arxiv.org/abs/2511.14558v1
- Date: Tue, 18 Nov 2025 15:00:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.169542
- Title: Explaining Digital Pathology Models via Clustering Activations
- Title(参考訳): クラスタリングアクティベーションによるデジタル病理モデルの記述
- Authors: Adam Bajger, Jan Obdržálek, Vojtěch Kůr, Rudolf Nenutil, Petr Holub, Vít Musil, Tomáš Brázdil,
- Abstract要約: 本稿では,畳み込みニューラルネットワークに基づくデジタル病理モデルに対するクラスタリングに基づく説明可能性手法を提案する。
提案手法は,より詳細な情報を提供するとともに,検討中のモデルのグローバルな挙動を示す。
また,前立腺癌検出モデルの有効性を実証し,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 4.206961078715932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a clustering-based explainability technique for digital pathology models based on convolutional neural networks. Unlike commonly used methods based on saliency maps, such as occlusion, GradCAM, or relevance propagation, which highlight regions that contribute the most to the prediction for a single slide, our method shows the global behaviour of the model under consideration, while also providing more fine-grained information. The result clusters can be visualised not only to understand the model, but also to increase confidence in its operation, leading to faster adoption in clinical practice. We also evaluate the performance of our technique on an existing model for detecting prostate cancer, demonstrating its usefulness.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワークに基づくデジタル病理モデルに対するクラスタリングに基づく説明可能性手法を提案する。
単一スライドの予測に最も寄与する領域を強調し,よりきめ細かな情報を提供するとともに,本手法では検討中のモデルのグローバルな振る舞いを示す。
結果クラスターは, モデルを理解するだけでなく, 手術の信頼性を高めるために可視化され, 臨床実践の高速化に繋がる。
また,前立腺癌検出モデルの有効性を実証し,本手法の有効性を検証した。
関連論文リスト
- CLEAR: Causal Learning Framework For Robust Histopathology Tumor Detection Under Out-Of-Distribution Shifts [2.0327514588332996]
病理学におけるドメインシフトは、ディープラーニングモデルの一般化能力に大きな課題をもたらす。
本稿では,共同創設者の影響を緩和しつつ,意味的特徴を活用した因果推論に基づく新しいフレームワークを提案する。
我々はCAMELYON17データセットとプライベートな病理組織学データセットを用いて本手法の有効性を検証し,未確認領域における一貫した性能向上を実証した。
論文 参考訳(メタデータ) (2025-10-16T03:45:31Z) - Gradient Attention Map Based Verification of Deep Convolutional Neural Networks with Application to X-ray Image Datasets [1.0208529247755187]
複数の相補的戦略を通じてモデル適合性を評価する包括的検証フレームワークを提案する。
まず、グラディエント・アテンション・マップ(GAM)に基づくアプローチを導入し、グラディエント・アテンション・マップを用いて注意パターンを解析する。
第2に、初期畳み込み特徴写像に検証を拡張し、注意を欠いた構造的ミスアライメントをキャプチャする。
第3に,配布外入力を明示的に拒否するために,新たなガベージクラスを分類モデルに組み込む。
論文 参考訳(メタデータ) (2025-04-29T23:41:37Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - Manipulating Feature Visualizations with Gradient Slingshots [53.94925202421929]
特徴可視化(FV)は、ディープニューラルネットワーク(DNN)で学んだ概念を解釈するための広く使われている手法である。
本稿では,モデルアーキテクチャを変更したり,性能を著しく劣化させたりすることなくFVの操作を可能にする新しい手法,Gradient Slingshotsを提案する。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - An interpretable deep learning method for bearing fault diagnosis [12.069344716912843]
我々は、グラディエント重み付きクラス活性化マッピング(Grad-CAM)可視化を用いた畳み込みニューラルネットワーク(CNN)を用いて、ベアリング障害を分類するための解釈可能なディープラーニング(DL)手法を構築した。
モデル評価過程において,提案手法は特徴量の類似性に応じて,健康図書館から予測ベースサンプルを検索する。
論文 参考訳(メタデータ) (2023-08-20T15:22:08Z) - From Modern CNNs to Vision Transformers: Assessing the Performance,
Robustness, and Classification Strategies of Deep Learning Models in
Histopathology [1.8947504307591034]
我々は、広範囲の分類モデルを広範囲に評価する新しい手法を開発した。
広く使用されている5つの病理組織学的データセットを用いて,そのモデルを徹底的に検証した。
既存の解釈可能性手法を拡張し、モデルの分類戦略に関する洞察を体系的に明らかにする。
論文 参考訳(メタデータ) (2022-04-11T12:26:19Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Towards Interpretable Deep Learning Models for Knowledge Tracing [62.75876617721375]
本稿では,深層学習に基づく知識追跡(DLKT)モデルの解釈可能性問題に対処するポストホック手法を提案する。
具体的には、RNNに基づくDLKTモデルを解釈するために、レイヤワイズ関連伝搬法(LRP)を適用することに焦点をあてる。
実験結果から,DLKTモデルの予測をLRP法で解釈できることを示す。
論文 参考訳(メタデータ) (2020-05-13T04:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。