論文の概要: TPMIL: Trainable Prototype Enhanced Multiple Instance Learning for Whole
Slide Image Classification
- arxiv url: http://arxiv.org/abs/2305.00696v1
- Date: Mon, 1 May 2023 07:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 13:40:37.611858
- Title: TPMIL: Trainable Prototype Enhanced Multiple Instance Learning for Whole
Slide Image Classification
- Title(参考訳): TPMIL: 全スライド画像分類のためのトレーニング可能なプロトタイプ強化マルチインスタンス学習
- Authors: Litao Yang, Deval Mehta, Sidong Liu, Dwarikanath Mahapatra, Antonio Di
Ieva, Zongyuan Ge
- Abstract要約: 我々は、弱い教師付きWSI分類のための訓練可能なプロトタイプ強化深層MILフレームワークを開発した。
本手法により, 異なる腫瘍のサブタイプ間の相関関係を明らかにすることができる。
提案手法を2つのWSIデータセット上でテストし,新たなSOTAを実現する。
- 参考スコア(独自算出の注目度): 13.195971707693365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital pathology based on whole slide images (WSIs) plays a key role in
cancer diagnosis and clinical practice. Due to the high resolution of the WSI
and the unavailability of patch-level annotations, WSI classification is
usually formulated as a weakly supervised problem, which relies on multiple
instance learning (MIL) based on patches of a WSI. In this paper, we aim to
learn an optimal patch-level feature space by integrating prototype learning
with MIL. To this end, we develop a Trainable Prototype enhanced deep MIL
(TPMIL) framework for weakly supervised WSI classification. In contrast to the
conventional methods which rely on a certain number of selected patches for
feature space refinement, we softly cluster all the instances by allocating
them to their corresponding prototypes. Additionally, our method is able to
reveal the correlations between different tumor subtypes through distances
between corresponding trained prototypes. More importantly, TPMIL also enables
to provide a more accurate interpretability based on the distance of the
instances from the trained prototypes which serves as an alternative to the
conventional attention score-based interpretability. We test our method on two
WSI datasets and it achieves a new SOTA. GitHub repository:
https://github.com/LitaoYang-Jet/TPMIL
- Abstract(参考訳): 全スライド画像(WSI)に基づくデジタル病理は,がん診断や臨床実践において重要な役割を担っている。
WSIの高解像度化とパッチレベルのアノテーションの有効性のため、WSI分類は通常、WSIのパッチに基づいた複数のインスタンス学習(MIL)に依存する弱教師付き問題として定式化される。
本稿では,MILとプロトタイプ学習を統合することで,最適なパッチレベルの特徴空間を学習することを目的とする。
そこで本研究では,WSI分類を弱教師付する訓練可能な拡張深層MIL(TPMIL)フレームワークを開発した。
特徴空間の改良のために選択されたパッチ数に依存する従来の手法とは対照的に、我々は対応するプロトタイプに割り当てることで、全てのインスタンスをソフトにクラスタリングする。
さらに, 異なる腫瘍サブタイプ間の相関を, 対応する訓練済みプロトタイプ間の距離を通して明らかにする。
さらに重要なことに、tpmilは、従来の注意スコアに基づく解釈の代替となる訓練済みのプロトタイプから、インスタンスの距離に基づいて、より正確な解釈性を提供することができる。
提案手法を2つのWSIデータセット上でテストし,新たなSOTAを実現する。
GitHubリポジトリ:https://github.com/LitaoYang-Jet/TPMIL
関連論文リスト
- Queryable Prototype Multiple Instance Learning with Vision-Language Models for Incremental Whole Slide Image Classification [10.667645628712542]
本稿では, 逐次WSI分類に特化して設計された, Queryable Prototype Multiple Instance Learning (QPMIL-VL) を用いた視覚言語ベースのフレームワークを提案する。
TCGAデータセットの4つの実験により、我々のQPMIL-VLフレームワークが漸進的なWSI分類に有効であることが示された。
論文 参考訳(メタデータ) (2024-10-14T14:49:34Z) - Attention Is Not What You Need: Revisiting Multi-Instance Learning for Whole Slide Image Classification [51.95824566163554]
我々は,標準MIL仮定と変分推論を相乗化することにより,スプリアス相関ではなく腫瘍形態学に焦点を合わせることができると主張している。
また, ハードインスタンスの識別に優れた分類境界を実現し, バッグとラベルの相互関係を緩和する。
論文 参考訳(メタデータ) (2024-08-18T12:15:22Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Compact and De-biased Negative Instance Embedding for Multi-Instance
Learning on Whole-Slide Image Classification [3.2721526745176144]
半超音波信号を導入し、スライディング間の変動を抑えるとともに、通常のパッチの変動の共通要因を捉える。
本手法は,カメリオン16およびTGA肺がんを含む2つのWSIデータセットを用いて検討した。
論文 参考訳(メタデータ) (2024-02-16T11:28:50Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Feature Re-calibration based MIL for Whole Slide Image Classification [7.92885032436243]
全スライド画像(WSI)分類は疾患の診断と治療の基本的な課題である。
本稿では,WSI バッグ (インスタンス) の分布を,最大インスタンス (クリティカル) 特性の統計値を用いて再校正することを提案する。
位置符号化モジュール(PEM)を用いて空間・形態情報をモデル化し,マルチヘッド自己アテンション(PSMA)をトランスフォーマーエンコーダでプーリングする。
論文 参考訳(メタデータ) (2022-06-22T07:00:39Z) - DGMIL: Distribution Guided Multiple Instance Learning for Whole Slide
Image Classification [9.950131528559211]
本稿では,WSI分類と正のパッチローカライゼーションのための機能分布ガイド付きディープMILフレームワークを提案する。
CAMELYON16 データセットと TCGA Lung Cancer データセットを用いた実験により,本手法はグローバルな分類と正のパッチローカライゼーションの両タスクにおいて,新たな SOTA を実現することが示された。
論文 参考訳(メタデータ) (2022-06-17T16:04:30Z) - Dual-stream Multiple Instance Learning Network for Whole Slide Image
Classification with Self-supervised Contrastive Learning [16.84711797934138]
スライド画像全体分類(WSI)の課題に対処する。
WSI分類は、スライドレベルラベルのみが利用可能である場合、多重インスタンス学習(MIL)問題としてキャストすることができる。
局所アノテーションを必要としないWSI分類と腫瘍検出のためのMILベースの手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T20:51:15Z) - Improving Few-shot Learning by Spatially-aware Matching and
CrossTransformer [116.46533207849619]
数ショット学習シナリオにおけるスケールと位置ミスマッチの影響について検討する。
本稿では,複数のスケールや場所のマッチングを効果的に行うための,空間認識型マッチング手法を提案する。
論文 参考訳(メタデータ) (2020-01-06T14:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。