論文の概要: Multi-level Multiple Instance Learning with Transformer for Whole Slide
Image Classification
- arxiv url: http://arxiv.org/abs/2306.05029v2
- Date: Tue, 5 Sep 2023 09:43:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 04:56:42.538658
- Title: Multi-level Multiple Instance Learning with Transformer for Whole Slide
Image Classification
- Title(参考訳): 全スライド画像分類のためのトランスフォーマを用いたマルチレベルマルチインスタンス学習
- Authors: Ruijie Zhang, Qiaozhe Zhang, Yingzhuang Liu, Hao Xin, Yan Liu,
Xinggang Wang
- Abstract要約: ホイルスライド画像(WSI)は、コンピュータ支援診断(CAD)において広く用いられている高解像度スキャンされた組織像の一種である。
本稿では,MIL に階層構造を導入し,多数のインスタンスを含む MIL タスクの効率的な処理を可能にするマルチレベル MIL (MMIL) 方式を提案する。
MMILに基づくMMIL-Transformerは,大規模MILタスクに対して,ウィンドウ化された正確な自己アテンションを持つ効率的なトランスフォーマーモデルである。
- 参考スコア(独自算出の注目度): 32.43847786719133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole slide image (WSI) refers to a type of high-resolution scanned tissue
image, which is extensively employed in computer-assisted diagnosis (CAD). The
extremely high resolution and limited availability of region-level annotations
make employing deep learning methods for WSI-based digital diagnosis
challenging. Recently integrating multiple instance learning (MIL) and
Transformer for WSI analysis shows very promising results. However, designing
effective Transformers for this weakly-supervised high-resolution image
analysis is an underexplored yet important problem. In this paper, we propose a
Multi-level MIL (MMIL) scheme by introducing a hierarchical structure to MIL,
which enables efficient handling of MIL tasks involving a large number of
instances. Based on MMIL, we instantiated MMIL-Transformer, an efficient
Transformer model with windowed exact self-attention for large-scale MIL tasks.
To validate its effectiveness, we conducted a set of experiments on WSI
classification tasks, where MMIL-Transformer demonstrate superior performance
compared to existing state-of-the-art methods, i.e., 96.80% test AUC and 97.67%
test accuracy on the CAMELYON16 dataset, 99.04% test AUC and 94.37% test
accuracy on the TCGA-NSCLC dataset, respectively. All code and pre-trained
models are available at: https://github.com/hustvl/MMIL-Transformer
- Abstract(参考訳): whole slide image (wsi) は、コンピュータ支援診断 (cad) に広く用いられている高分解能スキャンされた組織画像の一種である。
極端に高解像度かつ限定的な領域レベルのアノテーションは、WSIベースのデジタル診断にディープラーニング手法を採用することを困難にしている。
最近、wsi分析にmil(multiple instance learning)とtransformerを統合することで、非常に有望な結果が得られた。
しかし、この弱教師付き高分解能画像解析のための効果的なトランスフォーマーの設計は、未検討だが重要な問題である。
本稿では,MILに階層構造を導入し,多数のインスタンスを含むMILタスクを効率的に処理できるMMIL(Multi-level MIL)方式を提案する。
MMILに基づくMMIL-Transformerは,大規模MILタスクに対して,ウィンドウ化された正確な自己アテンションを持つ効率的なトランスフォーマーモデルである。
そこで, MMIL-Transformer は, CAMELYON16 データセットにおける 96.80% テスト AUC と 97.67% のテスト精度, 99.04% テスト AUC と 94.37% テスト精度を, TCGA-NSCLC データセット上でそれぞれ比較した。
すべてのコードおよび事前訓練済みモデルは、https://github.com/hustvl/MMIL-Transformerで利用可能である。
関連論文リスト
- Multi-head Attention-based Deep Multiple Instance Learning [1.0389304366020162]
MAD-MILはマルチヘッドアテンションに基づくディープマルチインスタンス学習モデルである。
デジタル病理学において弱教師付き全スライド画像(WSI)分類のために設計されている。
MNIST-BAGSとTUPAC16, TCGA BRCA, TCGA LUNG, TCGA KIDNEYなどの公開データセットで評価を行った。
論文 参考訳(メタデータ) (2024-04-08T09:54:28Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - TPMIL: Trainable Prototype Enhanced Multiple Instance Learning for Whole
Slide Image Classification [13.195971707693365]
我々は、弱い教師付きWSI分類のための訓練可能なプロトタイプ強化深層MILフレームワークを開発した。
本手法により, 異なる腫瘍のサブタイプ間の相関関係を明らかにすることができる。
提案手法を2つのWSIデータセット上でテストし,新たなSOTAを実現する。
論文 参考訳(メタデータ) (2023-05-01T07:39:19Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Differentiable Zooming for Multiple Instance Learning on Whole-Slide
Images [4.928363812223965]
本稿では,エンドツーエンドでマルチレベルズームを行う方法であるZoomMILを提案する。
提案手法は2つの大規模データセット上でWSI分類における最先端のMIL法より優れている。
論文 参考訳(メタデータ) (2022-04-26T17:20:50Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - TransMIL: Transformer based Correlated Multiple Instance Learning for
Whole Slide Image Classication [38.58585442160062]
マルチプル・インスタンス・ラーニング(MIL)は、スライド画像全体(WSI)に基づく病理診断において、弱い教師付き分類を解決する強力なツールである。
我々は、相関MILと呼ばれる新しいフレームワークを提案し、収束の証明を提供した。
我々は3つの異なる計算病理問題に対する様々な実験を行い、最先端の手法と比較してより優れた性能と高速な収束を実現した。
論文 参考訳(メタデータ) (2021-06-02T02:57:54Z) - Dual-stream Multiple Instance Learning Network for Whole Slide Image
Classification with Self-supervised Contrastive Learning [16.84711797934138]
スライド画像全体分類(WSI)の課題に対処する。
WSI分類は、スライドレベルラベルのみが利用可能である場合、多重インスタンス学習(MIL)問題としてキャストすることができる。
局所アノテーションを必要としないWSI分類と腫瘍検出のためのMILベースの手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T20:51:15Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。