論文の概要: Histopathological Image Classification based on Self-Supervised Vision
Transformer and Weak Labels
- arxiv url: http://arxiv.org/abs/2210.09021v1
- Date: Mon, 17 Oct 2022 12:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:33:46.421466
- Title: Histopathological Image Classification based on Self-Supervised Vision
Transformer and Weak Labels
- Title(参考訳): 自己監督型視覚変換器と弱ラベルを用いた病理画像分類
- Authors: Ahmet Gokberk Gul, Oezdemir Cetin, Christoph Reich, Tim Prangemeier,
Nadine Flinner, Heinz Koeppl
- Abstract要約: 本稿では,スライドレベルのアノテーションに基づく癌領域の分類と局所化のための新しいアプローチであるSelf-ViT-MILを提案する。
Self-ViT-MILは、既存の最先端のMILベースのアプローチを、曲線の精度と面積の点で上回っている。
- 参考スコア(独自算出の注目度): 16.865729758055448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole Slide Image (WSI) analysis is a powerful method to facilitate the
diagnosis of cancer in tissue samples. Automating this diagnosis poses various
issues, most notably caused by the immense image resolution and limited
annotations. WSIs commonly exhibit resolutions of 100Kx100K pixels. Annotating
cancerous areas in WSIs on the pixel level is prohibitively labor-intensive and
requires a high level of expert knowledge. Multiple instance learning (MIL)
alleviates the need for expensive pixel-level annotations. In MIL, learning is
performed on slide-level labels, in which a pathologist provides information
about whether a slide includes cancerous tissue. Here, we propose Self-ViT-MIL,
a novel approach for classifying and localizing cancerous areas based on
slide-level annotations, eliminating the need for pixel-wise annotated training
data. Self-ViT- MIL is pre-trained in a self-supervised setting to learn rich
feature representation without relying on any labels. The recent Vision
Transformer (ViT) architecture builds the feature extractor of Self-ViT-MIL.
For localizing cancerous regions, a MIL aggregator with global attention is
utilized. To the best of our knowledge, Self-ViT- MIL is the first approach to
introduce self-supervised ViTs in MIL-based WSI analysis tasks. We showcase the
effectiveness of our approach on the common Camelyon16 dataset. Self-ViT-MIL
surpasses existing state-of-the-art MIL-based approaches in terms of accuracy
and area under the curve (AUC).
- Abstract(参考訳): Whole Slide Image (WSI) 解析は、組織サンプルのがんの診断を容易にする強力な方法である。
この診断の自動化は様々な問題を引き起こし、特に大きな画像解像度と限定的なアノテーションによって引き起こされる。
WSIは一般的に100Kx100Kピクセルの解像度を示す。
ピクセルレベルでのWSIの癌領域のアノテーションは、労働集約的であり、高いレベルの専門知識を必要とする。
複数インスタンス学習(MIL)は、高価なピクセルレベルのアノテーションの必要性を軽減する。
milでは、病理学者ががん組織を含むかどうかに関する情報を提供するスライドレベルラベルで学習を行う。
本稿では,スライドレベルのアノテーションに基づく癌領域の分類と局所化のための新しい手法であるself-vit-milを提案する。
Self-ViT-MILは、ラベルに頼らずにリッチな特徴表現を学習するために、セルフ教師付き設定で事前訓練される。
最近のViTアーキテクチャは、Self-ViT-MILの機能抽出器を構築している。
がん領域のローカライズには、グローバルな注目を集めるMILアグリゲータが使用される。
我々の知る限りでは、MILベースのWSI分析タスクに自己監督型ViTを導入する最初のアプローチである。
一般的なCamelyon16データセットにアプローチの有効性を示す。
Self-ViT-MILは、曲線(AUC)の精度と面積の観点から、最先端のMILベースのアプローチを超越している。
関連論文リスト
- MamMIL: Multiple Instance Learning for Whole Slide Images with State
Space Models [58.39336492765728]
がん診断のゴールドスタンダードである病理診断は、TransformerとMIL(Multiple Case Learning)フレームワークを併用して、全スライド画像(WSI)を用いて、優れたパフォーマンスを実現している。
選択的構造化状態空間モデル(Mamba)とMILとの協調によるWSI分類のためのMamMILフレームワークを提案する。
具体的には、マンバが一方向一次元(一次元)シーケンスモデリングしか行えないという問題を解決するため、双方向状態空間モデルと2次元コンテキスト認識ブロックを革新的に導入する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - A self-supervised framework for learning whole slide representations [55.121381765372334]
全体スライド画像(WSI)は、そのサイズによって複雑なコンピュータビジョンの課題を示す。
自己教師付き表現学習は、下流診断タスクにおける高品質なWSI視覚特徴学習を実現することができる。
ギガピクセル規模のWSIの自己監督のための汎用的な自己教師型全スライド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Multi-level Multiple Instance Learning with Transformer for Whole Slide
Image Classification [32.43847786719133]
ホイルスライド画像(WSI)は、コンピュータ支援診断(CAD)において広く用いられている高解像度スキャンされた組織像の一種である。
本稿では,MIL に階層構造を導入し,多数のインスタンスを含む MIL タスクの効率的な処理を可能にするマルチレベル MIL (MMIL) 方式を提案する。
MMILに基づくMMIL-Transformerは,大規模MILタスクに対して,ウィンドウ化された正確な自己アテンションを持つ効率的なトランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-06-08T08:29:10Z) - TPMIL: Trainable Prototype Enhanced Multiple Instance Learning for Whole
Slide Image Classification [13.195971707693365]
我々は、弱い教師付きWSI分類のための訓練可能なプロトタイプ強化深層MILフレームワークを開発した。
本手法により, 異なる腫瘍のサブタイプ間の相関関係を明らかにすることができる。
提案手法を2つのWSIデータセット上でテストし,新たなSOTAを実現する。
論文 参考訳(メタデータ) (2023-05-01T07:39:19Z) - Cross-scale Multi-instance Learning for Pathological Image Diagnosis [20.519711186151635]
MIL(Multi-Instance Learning)は、オブジェクトの袋を分類することで高解像度画像を扱うための一般的なソリューションである。
画像診断のための1つのMILネットワークにスケール間関係を明示的に集約する,新しいクロススケールMILアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-01T03:52:52Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Differentiable Zooming for Multiple Instance Learning on Whole-Slide
Images [4.928363812223965]
本稿では,エンドツーエンドでマルチレベルズームを行う方法であるZoomMILを提案する。
提案手法は2つの大規模データセット上でWSI分類における最先端のMIL法より優れている。
論文 参考訳(メタデータ) (2022-04-26T17:20:50Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。