論文の概要: Multi-level Multiple Instance Learning with Transformer for Whole Slide
Image Classification
- arxiv url: http://arxiv.org/abs/2306.05029v1
- Date: Thu, 8 Jun 2023 08:29:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 15:35:34.869647
- Title: Multi-level Multiple Instance Learning with Transformer for Whole Slide
Image Classification
- Title(参考訳): 全スライド画像分類のためのトランスフォーマを用いたマルチレベルマルチインスタンス学習
- Authors: Ruijie Zhang, Qiaozhe Zhang, Yingzhuang Liu, Hao Xin, Yan Liu,
Xinggang Wang
- Abstract要約: ホイルスライド画像(WSI)は、コンピュータ支援診断(CAD)において広く用いられている高解像度スキャンされた組織像の一種である。
極端に高解像度かつ限定的な領域レベルのアノテーションは、WSIベースのデジタル診断に深層学習手法を採用することを困難にしている。
マルチインスタンス学習(MIL)は弱いアノテーション問題に対処するための強力なツールであり、Transformerは視覚タスクの分野で大きな成功を収めている。
- 参考スコア(独自算出の注目度): 25.833520573835873
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole slide image (WSI) refers to a type of high-resolution scanned tissue
image, which is extensively employed in computer-assisted diagnosis (CAD). The
extremely high resolution and limited availability of region-level annotations
make it challenging to employ deep learning methods for WSI-based digital
diagnosis. Multiple instance learning (MIL) is a powerful tool to address the
weak annotation problem, while Transformer has shown great success in the field
of visual tasks. The combination of both should provide new insights for deep
learning based image diagnosis. However, due to the limitations of single-level
MIL and the attention mechanism's constraints on sequence length, directly
applying Transformer to WSI-based MIL tasks is not practical. To tackle this
issue, we propose a Multi-level MIL with Transformer (MMIL-Transformer)
approach. By introducing a hierarchical structure to MIL, this approach enables
efficient handling of MIL tasks that involve a large number of instances. To
validate its effectiveness, we conducted a set of experiments on WSIs
classification task, where MMIL-Transformer demonstrate superior performance
compared to existing state-of-the-art methods. Our proposed approach achieves
test AUC 94.74% and test accuracy 93.41% on CAMELYON16 dataset, test AUC 99.04%
and test accuracy 94.37% on TCGA-NSCLC dataset, respectively. All code and
pre-trained models are available at: https://github.com/hustvl/MMIL-Transformer
- Abstract(参考訳): whole slide image (wsi) は、コンピュータ支援診断 (cad) に広く用いられている高分解能スキャンされた組織画像の一種である。
極端に高解像度かつ限定的な領域レベルのアノテーションは、WSIベースのデジタル診断に深層学習手法を採用することを困難にしている。
マルチインスタンス学習(MIL)は弱いアノテーション問題に対処するための強力なツールであり、Transformerは視覚タスクの分野で大きな成功を収めている。
両者の組み合わせは、深層学習に基づく画像診断のための新しい洞察を提供する。
しかしながら、シングルレベルミルの制限とアテンション機構のシーケンス長に対する制約のため、wsiベースのミルタスクに直接トランスフォーマーを適用することは実用的ではない。
本稿では,MMIL変換器を用いたマルチレベルMILを提案する。
MILに階層構造を導入することで、多数のインスタンスを含むMILタスクの効率的な処理が可能になる。
その効果を検証するために,wsis分類タスクの一連の実験を行い,mil変換器は既存の最先端手法よりも優れた性能を示す。
提案手法は,CAMELYON16データセットでテストAUC 94.74%,テスト精度93.41%,テストAUC 99.04%,テスト精度94.37%をTCGA-NSCLCデータセットで達成する。
すべてのコードおよび事前訓練済みモデルは、https://github.com/hustvl/MMIL-Transformerで利用可能である。
関連論文リスト
- Multi-head Attention-based Deep Multiple Instance Learning [1.0389304366020162]
MAD-MILはマルチヘッドアテンションに基づくディープマルチインスタンス学習モデルである。
デジタル病理学において弱教師付き全スライド画像(WSI)分類のために設計されている。
MNIST-BAGSとTUPAC16, TCGA BRCA, TCGA LUNG, TCGA KIDNEYなどの公開データセットで評価を行った。
論文 参考訳(メタデータ) (2024-04-08T09:54:28Z) - MamMIL: Multiple Instance Learning for Whole Slide Images with State Space Models [56.37780601189795]
本稿では,WSI分析のためのフレームワークMamMILを提案する。
私たちは各WSIを非指向グラフとして表現します。
マンバが1次元シーケンスしか処理できない問題に対処するために、トポロジ対応の走査機構を提案する。
論文 参考訳(メタデータ) (2024-03-08T09:02:13Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - TPMIL: Trainable Prototype Enhanced Multiple Instance Learning for Whole
Slide Image Classification [13.195971707693365]
我々は、弱い教師付きWSI分類のための訓練可能なプロトタイプ強化深層MILフレームワークを開発した。
本手法により, 異なる腫瘍のサブタイプ間の相関関係を明らかにすることができる。
提案手法を2つのWSIデータセット上でテストし,新たなSOTAを実現する。
論文 参考訳(メタデータ) (2023-05-01T07:39:19Z) - AMIGO: Sparse Multi-Modal Graph Transformer with Shared-Context
Processing for Representation Learning of Giga-pixel Images [53.29794593104923]
本稿では,スライド病理像全体に対する共有コンテキスト処理の新たな概念を提案する。
AMIGOは、組織内のセルラーグラフを使用して、患者に単一の表現を提供する。
我々のモデルは、データの20%以下で同じ性能を達成できる程度に、欠落した情報に対して強い堅牢性を示す。
論文 参考訳(メタデータ) (2023-03-01T23:37:45Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Differentiable Zooming for Multiple Instance Learning on Whole-Slide
Images [4.928363812223965]
本稿では,エンドツーエンドでマルチレベルズームを行う方法であるZoomMILを提案する。
提案手法は2つの大規模データセット上でWSI分類における最先端のMIL法より優れている。
論文 参考訳(メタデータ) (2022-04-26T17:20:50Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - TransMIL: Transformer based Correlated Multiple Instance Learning for
Whole Slide Image Classication [38.58585442160062]
マルチプル・インスタンス・ラーニング(MIL)は、スライド画像全体(WSI)に基づく病理診断において、弱い教師付き分類を解決する強力なツールである。
我々は、相関MILと呼ばれる新しいフレームワークを提案し、収束の証明を提供した。
我々は3つの異なる計算病理問題に対する様々な実験を行い、最先端の手法と比較してより優れた性能と高速な収束を実現した。
論文 参考訳(メタデータ) (2021-06-02T02:57:54Z) - Dual-stream Multiple Instance Learning Network for Whole Slide Image
Classification with Self-supervised Contrastive Learning [16.84711797934138]
スライド画像全体分類(WSI)の課題に対処する。
WSI分類は、スライドレベルラベルのみが利用可能である場合、多重インスタンス学習(MIL)問題としてキャストすることができる。
局所アノテーションを必要としないWSI分類と腫瘍検出のためのMILベースの手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T20:51:15Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。