論文の概要: Histopathological Image Classification based on Self-Supervised Vision
Transformer and Weak Labels
- arxiv url: http://arxiv.org/abs/2210.09021v1
- Date: Mon, 17 Oct 2022 12:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:33:46.421466
- Title: Histopathological Image Classification based on Self-Supervised Vision
Transformer and Weak Labels
- Title(参考訳): 自己監督型視覚変換器と弱ラベルを用いた病理画像分類
- Authors: Ahmet Gokberk Gul, Oezdemir Cetin, Christoph Reich, Tim Prangemeier,
Nadine Flinner, Heinz Koeppl
- Abstract要約: 本稿では,スライドレベルのアノテーションに基づく癌領域の分類と局所化のための新しいアプローチであるSelf-ViT-MILを提案する。
Self-ViT-MILは、既存の最先端のMILベースのアプローチを、曲線の精度と面積の点で上回っている。
- 参考スコア(独自算出の注目度): 16.865729758055448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole Slide Image (WSI) analysis is a powerful method to facilitate the
diagnosis of cancer in tissue samples. Automating this diagnosis poses various
issues, most notably caused by the immense image resolution and limited
annotations. WSIs commonly exhibit resolutions of 100Kx100K pixels. Annotating
cancerous areas in WSIs on the pixel level is prohibitively labor-intensive and
requires a high level of expert knowledge. Multiple instance learning (MIL)
alleviates the need for expensive pixel-level annotations. In MIL, learning is
performed on slide-level labels, in which a pathologist provides information
about whether a slide includes cancerous tissue. Here, we propose Self-ViT-MIL,
a novel approach for classifying and localizing cancerous areas based on
slide-level annotations, eliminating the need for pixel-wise annotated training
data. Self-ViT- MIL is pre-trained in a self-supervised setting to learn rich
feature representation without relying on any labels. The recent Vision
Transformer (ViT) architecture builds the feature extractor of Self-ViT-MIL.
For localizing cancerous regions, a MIL aggregator with global attention is
utilized. To the best of our knowledge, Self-ViT- MIL is the first approach to
introduce self-supervised ViTs in MIL-based WSI analysis tasks. We showcase the
effectiveness of our approach on the common Camelyon16 dataset. Self-ViT-MIL
surpasses existing state-of-the-art MIL-based approaches in terms of accuracy
and area under the curve (AUC).
- Abstract(参考訳): Whole Slide Image (WSI) 解析は、組織サンプルのがんの診断を容易にする強力な方法である。
この診断の自動化は様々な問題を引き起こし、特に大きな画像解像度と限定的なアノテーションによって引き起こされる。
WSIは一般的に100Kx100Kピクセルの解像度を示す。
ピクセルレベルでのWSIの癌領域のアノテーションは、労働集約的であり、高いレベルの専門知識を必要とする。
複数インスタンス学習(MIL)は、高価なピクセルレベルのアノテーションの必要性を軽減する。
milでは、病理学者ががん組織を含むかどうかに関する情報を提供するスライドレベルラベルで学習を行う。
本稿では,スライドレベルのアノテーションに基づく癌領域の分類と局所化のための新しい手法であるself-vit-milを提案する。
Self-ViT-MILは、ラベルに頼らずにリッチな特徴表現を学習するために、セルフ教師付き設定で事前訓練される。
最近のViTアーキテクチャは、Self-ViT-MILの機能抽出器を構築している。
がん領域のローカライズには、グローバルな注目を集めるMILアグリゲータが使用される。
我々の知る限りでは、MILベースのWSI分析タスクに自己監督型ViTを導入する最初のアプローチである。
一般的なCamelyon16データセットにアプローチの有効性を示す。
Self-ViT-MILは、曲線(AUC)の精度と面積の観点から、最先端のMILベースのアプローチを超越している。
関連論文リスト
- MicroMIL: Graph-based Contextual Multiple Instance Learning for Patient Diagnosis Using Microscopy Images [2.324913904215885]
弱教師付き多重インスタンス学習(MIL)を持つスキャナーによって生成された全スライディング画像(WSI)は、コストが高く、メモリ集約的であり、広範囲な分析時間を必要とする。
我々はこれらの課題に対処するために特別に構築された、弱教師付きMILフレームワークであるMicroMILを紹介した。
グラフエッジは上部三角形の類似性行列から構築され、ノードは最も類似した隣人に接続され、グラフニューラルネットワーク(GNN)を使用してコンテキスト情報をキャプチャする。
論文 参考訳(メタデータ) (2024-07-31T13:38:47Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Multi-level Multiple Instance Learning with Transformer for Whole Slide
Image Classification [32.43847786719133]
ホイルスライド画像(WSI)は、コンピュータ支援診断(CAD)において広く用いられている高解像度スキャンされた組織像の一種である。
本稿では,MIL に階層構造を導入し,多数のインスタンスを含む MIL タスクの効率的な処理を可能にするマルチレベル MIL (MMIL) 方式を提案する。
MMILに基づくMMIL-Transformerは,大規模MILタスクに対して,ウィンドウ化された正確な自己アテンションを持つ効率的なトランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-06-08T08:29:10Z) - TPMIL: Trainable Prototype Enhanced Multiple Instance Learning for Whole
Slide Image Classification [13.195971707693365]
我々は、弱い教師付きWSI分類のための訓練可能なプロトタイプ強化深層MILフレームワークを開発した。
本手法により, 異なる腫瘍のサブタイプ間の相関関係を明らかにすることができる。
提案手法を2つのWSIデータセット上でテストし,新たなSOTAを実現する。
論文 参考訳(メタデータ) (2023-05-01T07:39:19Z) - Cross-scale Multi-instance Learning for Pathological Image Diagnosis [20.519711186151635]
MIL(Multi-Instance Learning)は、オブジェクトの袋を分類することで高解像度画像を扱うための一般的なソリューションである。
画像診断のための1つのMILネットワークにスケール間関係を明示的に集約する,新しいクロススケールMILアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-01T03:52:52Z) - Active Learning Enhances Classification of Histopathology Whole Slide
Images with Attention-based Multiple Instance Learning [48.02011627390706]
我々は、注意に基づくMILをトレーニングし、データセット内の各画像に対する信頼度を算出し、専門家のアノテーションに対して最も不確実なWSIを選択する。
新たな注意誘導損失により、各クラスにアノテートされた領域がほとんどない、トレーニングされたモデルの精度が向上する。
将来的には、病理組織学における癌分類の臨床的に関連する文脈において、MILモデルのトレーニングに重要な貢献をする可能性がある。
論文 参考訳(メタデータ) (2023-03-02T15:18:58Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。