論文の概要: Label-free Concept Based Multiple Instance Learning for Gigapixel Histopathology
- arxiv url: http://arxiv.org/abs/2501.02922v1
- Date: Mon, 06 Jan 2025 11:03:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:08:52.876555
- Title: Label-free Concept Based Multiple Instance Learning for Gigapixel Histopathology
- Title(参考訳): ラベルフリー概念に基づくギガピクセル病理学のためのマルチインスタンス学習
- Authors: Susu Sun, Leslie Tessier, Frédérique Meeuwsen, Clément Grisi, Dominique van Midden, Geert Litjens, Christian F. Baumgartner,
- Abstract要約: MIL(Multiple Instance Learning)メソッドは、スライドレベルのアノテーションだけで、ギガピクセルのWSI(Whole-Slide Image)解析を可能にする。
本稿では,人間の理解可能な病理概念を用いて説明を生成するWSI分類手法を提案する。
- 参考スコア(独自算出の注目度): 3.3353153750791718
- License:
- Abstract: Multiple Instance Learning (MIL) methods allow for gigapixel Whole-Slide Image (WSI) analysis with only slide-level annotations. Interpretability is crucial for safely deploying such algorithms in high-stakes medical domains. Traditional MIL methods offer explanations by highlighting salient regions. However, such spatial heatmaps provide limited insights for end users. To address this, we propose a novel inherently interpretable WSI-classification approach that uses human-understandable pathology concepts to generate explanations. Our proposed Concept MIL model leverages recent advances in vision-language models to directly predict pathology concepts based on image features. The model's predictions are obtained through a linear combination of the concepts identified on the top-K patches of a WSI, enabling inherent explanations by tracing each concept's influence on the prediction. In contrast to traditional concept-based interpretable models, our approach eliminates the need for costly human annotations by leveraging the vision-language model. We validate our method on two widely used pathology datasets: Camelyon16 and PANDA. On both datasets, Concept MIL achieves AUC and accuracy scores over 0.9, putting it on par with state-of-the-art models. We further find that 87.1\% (Camelyon16) and 85.3\% (PANDA) of the top 20 patches fall within the tumor region. A user study shows that the concepts identified by our model align with the concepts used by pathologists, making it a promising strategy for human-interpretable WSI classification.
- Abstract(参考訳): MIL(Multiple Instance Learning)メソッドは、スライドレベルのアノテーションだけで、ギガピクセルのWSI(Whole-Slide Image)解析を可能にする。
このようなアルゴリズムを高精細な医療領域に安全に展開するには、解釈可能性が不可欠である。
従来のMILメソッドは、正常な領域をハイライトすることで説明を提供する。
しかし、そのような空間熱マップはエンドユーザーに限られた洞察を与える。
そこで本研究では,人間の理解可能な病理概念を用いて説明を生成する,WSI分類法を提案する。
提案する概念MILモデルは,視覚言語モデルにおける最近の進歩を活用し,画像特徴に基づく病理学の概念を直接予測する。
モデルの予測は、WSIの上位Kパッチで特定された概念の線形結合によって得られ、各概念が予測に与える影響をトレースすることで、固有の説明を可能にする。
従来の概念に基づく解釈可能なモデルとは対照的に,本手法では視覚言語モデルを活用することにより,コストのかかる人的アノテーションの必要性を排除している。
本研究では,Camelyon16 とPANDA の2つの病理モデルを用いて本手法の有効性を検証した。
両方のデータセットにおいて、Concept MILはAUCと精度スコアを0.9以上達成し、最先端のモデルと同等に設定する。
さらに,上位20パッチのうち87.1\% (Camelyon16) と85.3\% (PANDA) が腫瘍領域内にあることが判明した。
ユーザスタディでは、我々のモデルで特定された概念は、病理学者が使用する概念と一致していることを示し、人間の解釈可能なWSI分類において有望な戦略となる。
関連論文リスト
- A Two-Step Concept-Based Approach for Enhanced Interpretability and Trust in Skin Lesion Diagnosis [6.6635650150737815]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解できない概念のセットに対する最終疾患予測を制約することにより、固有の解釈可能性を提供する。
これらの課題に対処する新しい2段階の方法論を導入する。
CBMの2段階をシミュレートすることにより,臨床概念の自動予測にVLM(Pretrained Vision Language Model),疾患診断にLLM(Large Language Model)を用いる。
論文 参考訳(メタデータ) (2024-11-08T14:52:42Z) - WEEP: A method for spatial interpretation of weakly supervised CNN models in computational pathology [0.36096289461554343]
モデル解釈のための新しい方法 Wsi rEgion sElection aPproach (WEEP) を提案する。
乳がん計算病理領域における二分分類課題におけるWEEPについて検討した。
論文 参考訳(メタデータ) (2024-03-22T14:32:02Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Unsupervised discovery of Interpretable Visual Concepts [0.0]
モデルの決定を説明する2つの方法を提案し,グローバルな解釈可能性を高める。
咬合・感性分析(因果性を含む)にインスパイアされた1つの方法
別の方法は、クラス認識順序相関 (Class-Aware Order correlation, CAOC) と呼ばれる新しいメトリクスを用いて、最も重要な画像領域を世界規模で評価する。
論文 参考訳(メタデータ) (2023-08-31T07:53:02Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - MAUVE Scores for Generative Models: Theory and Practice [95.86006777961182]
本報告では,テキストや画像の生成モデルで発生するような分布のペア間の比較尺度であるMAUVEについて述べる。
我々は、MAUVEが人間の文章の分布と現代のニューラル言語モデルとのギャップを定量化できることを発見した。
我々は、MAUVEが既存のメトリクスと同等以上の画像の既知の特性を識別できることを視覚領域で実証する。
論文 参考訳(メタデータ) (2022-12-30T07:37:40Z) - Unifying Heterogenous Electronic Health Records Systems via Text-Based
Code Embedding [7.3394352452936085]
本稿では,コードに依存しない記述に基づく表現学習フレームワークであるDescEmbを紹介した。
予測タスクや伝達学習,プール学習など,さまざまな実験において,モデルの性能を検証した。
論文 参考訳(メタデータ) (2021-08-08T12:47:42Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Using StyleGAN for Visual Interpretability of Deep Learning Models on
Medical Images [0.7874708385247352]
画像上の任意のブラックボックスモデルの予測を理解するために使用できる新しい解釈可能性法を提案する。
StyleGANは医療画像に基づいて訓練され、潜伏ベクトルと画像のマッピングを提供する。
この方向に沿って入力画像の潜在表現をシフトさせることにより、予測が変化する一連の新しい合成画像を生成することができる。
論文 参考訳(メタデータ) (2021-01-19T11:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。