論文の概要: Multistain Pretraining for Slide Representation Learning in Pathology
- arxiv url: http://arxiv.org/abs/2408.02859v1
- Date: Mon, 5 Aug 2024 22:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 15:28:57.173709
- Title: Multistain Pretraining for Slide Representation Learning in Pathology
- Title(参考訳): 病理におけるスライド表現学習のための多段階事前学習
- Authors: Guillaume Jaume, Anurag Vaidya, Andrew Zhang, Andrew H. Song, Richard J. Chen, Sharifa Sahai, Dandan Mo, Emilio Madrigal, Long Phi Le, Faisal Mahmood,
- Abstract要約: 自己教師付き学習モデルは、全スライド画像の普遍的および伝達可能な表現を学習することができる。
スライド表現学習のためのマルチモーダル事前学習戦略であるMadeleineを導入する。
マドレーヌが様々な下流評価で学んだスライド表現の質を実証する。
- 参考スコア(独自算出の注目度): 7.564260323883271
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Developing self-supervised learning (SSL) models that can learn universal and transferable representations of H&E gigapixel whole-slide images (WSIs) is becoming increasingly valuable in computational pathology. These models hold the potential to advance critical tasks such as few-shot classification, slide retrieval, and patient stratification. Existing approaches for slide representation learning extend the principles of SSL from small images (e.g., 224 x 224 patches) to entire slides, usually by aligning two different augmentations (or views) of the slide. Yet the resulting representation remains constrained by the limited clinical and biological diversity of the views. Instead, we postulate that slides stained with multiple markers, such as immunohistochemistry, can be used as different views to form a rich task-agnostic training signal. To this end, we introduce Madeleine, a multimodal pretraining strategy for slide representation learning. Madeleine is trained with a dual global-local cross-stain alignment objective on large cohorts of breast cancer samples (N=4,211 WSIs across five stains) and kidney transplant samples (N=12,070 WSIs across four stains). We demonstrate the quality of slide representations learned by Madeleine on various downstream evaluations, ranging from morphological and molecular classification to prognostic prediction, comprising 21 tasks using 7,299 WSIs from multiple medical centers. Code is available at https://github.com/mahmoodlab/MADELEINE.
- Abstract(参考訳): H&Eギガピクセル全スライディング画像(WSI)の普遍的かつ伝達可能な表現を学習できる自己教師付き学習(SSL)モデルの開発は、計算病理学においてますます価値が高まっている。
これらのモデルは、少数ショット分類、スライド検索、患者層化といった重要なタスクを前進させる可能性を秘めている。
既存のスライド表現学習のアプローチでは、SSLの原則を小さなイメージ(例:224 x 224パッチ)からスライド全体へと拡張している。
しかし、その結果の表現は、ビューの限られた臨床および生物学的多様性によって制限され続けている。
代わりに、免疫組織化学のような複数のマーカーで染色されたスライドは、リッチなタスクに依存しない訓練信号を形成するために異なるビューとして使用できると仮定する。
そこで本研究では,スライド表現学習のためのマルチモーダル事前学習戦略であるMadeleineを紹介する。
マドレーヌは、乳がんサンプル(5つの染色でN=4,211 WSI)と腎移植サンプル(4つの染色でN=12,070 WSI)の大規模なコホートに対して、二重の局所的クロスステインアライメント目標で訓練されている。
マドレーヌが学習したスライド表現の質は, 形態的, 分子的分類から予後予測まで, 複数の医療センターの7,299 WSIを用いた21のタスクからなる。
コードはhttps://github.com/mahmoodlab/MADELEINE.comで入手できる。
関連論文リスト
- Unsupervised Foundation Model-Agnostic Slide-Level Representation Learning [0.0]
本稿では,有用なスライド表現を生成する単一モダリティSSL法を提案する。
対照的な事前学習戦略はCOBRAと呼ばれ、複数のFMとMamba-2に基づくアーキテクチャを採用している。
COBRAは4種類のCPTACコホート上で、最先端のスライドエンコーダの性能を少なくとも3.8%上回っている。
論文 参考訳(メタデータ) (2024-11-20T13:12:43Z) - Transcriptomics-guided Slide Representation Learning in Computational Pathology [9.192285155829499]
自己教師付き学習(SSL)は、小さな組織像(224x224ピクセル)のパッチ埋め込みの構築に成功している。
ここでは、遺伝子発現プロファイルからの補完情報を利用して、マルチモーダル事前学習を用いたスライド表現学習をガイドする。
我々のSlide and Expression(S+E)事前学習戦略はTangleと呼ばれ、モダリティ固有のエンコーダを用いており、その出力はコントラスト学習によって整列される。
論文 参考訳(メタデータ) (2024-05-19T17:17:35Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Multi-modal Masked Autoencoders Learn Compositional Histopathological
Representations [3.2780506066663655]
Masked Autoencoders (MAE) はデジタル病理学に適した最近のSSL方式である。
ヘマトキシリンおよびエオシン染色WSIの特異な組成性を利用するマルチモーダルMAE(MMAE)を導入する。
その結果,MMAEアーキテクチャは8クラス組織表現型タスクにおいて,教師付きベースラインや他の最先端SSL技術よりも優れていた。
論文 参考訳(メタデータ) (2022-09-04T05:25:31Z) - Lesion-Aware Contrastive Representation Learning for Histopathology
Whole Slide Images Analysis [16.264758789726223]
本稿では,スライド画像解析の病理組織学的手法として,Lesion-Aware Contrastive Learning (LACL) という新しいコントラスト表現学習フレームワークを提案する。
実験の結果,LACLは異なるデータセット上での組織像表現学習において,最高の性能を発揮することが示された。
論文 参考訳(メタデータ) (2022-06-27T08:39:51Z) - Medulloblastoma Tumor Classification using Deep Transfer Learning with
Multi-Scale EfficientNets [63.62764375279861]
本稿では,エンド・ツー・エンドのMB腫瘍分類を提案し,様々な入力サイズとネットワーク次元の一致した移動学習を提案する。
161ケースのデータセットを用いて、より大規模な入力解像度を持つ事前学習されたEfficientNetが、大幅な性能改善をもたらすことを実証した。
論文 参考訳(メタデータ) (2021-09-10T13:07:11Z) - Relational Subsets Knowledge Distillation for Long-tailed Retinal
Diseases Recognition [65.77962788209103]
本研究では,長尾データを知識に基づいて複数のクラスサブセットに分割し,クラスサブセット学習を提案する。
モデルがサブセット固有の知識の学習に集中するように強制する。
提案手法は長期網膜疾患認識タスクに有効であることが判明した。
論文 参考訳(メタデータ) (2021-04-22T13:39:33Z) - Weakly supervised multiple instance learning histopathological tumor
segmentation [51.085268272912415]
スライド画像全体のセグメント化のための弱教師付きフレームワークを提案する。
トレーニングモデルに複数のインスタンス学習スキームを利用する。
提案するフレームワークは,The Cancer Genome AtlasとPatchCamelyonデータセットのマルチロケーションとマルチ中心公開データに基づいて評価されている。
論文 参考訳(メタデータ) (2020-04-10T13:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。