論文の概要: Unsupervised Foundation Model-Agnostic Slide-Level Representation Learning
- arxiv url: http://arxiv.org/abs/2411.13623v2
- Date: Mon, 16 Dec 2024 10:34:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:16.780052
- Title: Unsupervised Foundation Model-Agnostic Slide-Level Representation Learning
- Title(参考訳): 教師なし基礎モデル-非教師なしスライドレベル表現学習
- Authors: Tim Lenz, Peter Neidlinger, Marta Ligero, Georg Wölflein, Marko van Treeck, Jakob Nikolas Kather,
- Abstract要約: 自己教師付き学習は、パッチ埋め込み生成のための組織モデル(FM)の訓練に成功している。
本稿では,有用なスライド表現を生成する単一モダリティSSL方式を提案する。
対照的な事前学習戦略はCOBRAと呼ばれ、複数のFMとMamba-2に基づくアーキテクチャを採用している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Representation learning of pathology whole-slide images(WSIs) has primarily relied on weak supervision with Multiple Instance Learning (MIL). This approach leads to slide representations highly tailored to a specific clinical task. Self-supervised learning (SSL) has been successfully applied to train histopathology foundation models (FMs) for patch embedding generation. However, generating patient or slide level embeddings remains challenging. Existing approaches for slide representation learning extend the principles of SSL from patch level learning to entire slides by aligning different augmentations of the slide or by utilizing multimodal data. By integrating tile embeddings from multiple FMs, we propose a new single modality SSL method in feature space that generates useful slide representations. Our contrastive pretraining strategy, called COBRA, employs multiple FMs and an architecture based on Mamba-2. COBRA exceeds performance of state-of-the-art slide encoders on four different public Clinical Protemic Tumor Analysis Consortium (CPTAC) cohorts on average by at least +4.5% AUC, despite only being pretrained on 3048 WSIs from The Cancer Genome Atlas (TCGA). Additionally, COBRA is readily compatible at inference time with previously unseen feature extractors. Code available at https://github.com/KatherLab/COBRA.
- Abstract(参考訳): 病理画像全体(WSI)の表現学習は、主にMIL(Multiple Instance Learning)による弱い監督に依存している。
このアプローチは、特定の臨床的タスクに高度に適合したスライド表現をもたらす。
自己教師付き学習(SSL)は、パッチ埋め込み生成のための組織学的基礎モデル(FM)の訓練に成功している。
しかし、患者やスライドレベルの埋め込みの生成は依然として困難である。
既存のスライド表現学習のアプローチでは、SSLの原則をパッチレベルの学習から、スライドの異なる拡張を調整したり、マルチモーダルデータを活用することで、スライド全体へと拡張している。
複数のFMからタイル埋め込みを統合することで,有用なスライド表現を生成する単一モダリティSSL法を提案する。
対照的な事前学習戦略はCOBRAと呼ばれ、複数のFMとMamba-2に基づくアーキテクチャを採用している。
COBRAは、The Cancer Genome Atlas (TCGA)の3048 WSIsでのみ事前訓練されているにもかかわらず、CPTACコホートを平均で4.5%以上上回っている。
さらに、COBRAは、これまで見えなかった特徴抽出器と推論時に容易に互換性がある。
コードはhttps://github.com/KatherLab/COBRAで公開されている。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - Multistain Pretraining for Slide Representation Learning in Pathology [7.564260323883271]
自己教師付き学習モデルは、全スライド画像の普遍的および伝達可能な表現を学習することができる。
スライド表現学習のためのマルチモーダル事前学習戦略であるMadeleineを導入する。
マドレーヌが様々な下流評価で学んだスライド表現の質を実証する。
論文 参考訳(メタデータ) (2024-08-05T22:59:50Z) - A Multimodal Knowledge-enhanced Whole-slide Pathology Foundation Model [13.96693863133633]
スライド画像全体のH&E診断と関連する病理報告とRNA-Seqデータからなる最大マルチモーダルデータセットをキュレートした。
そこで,本論文では,病的FMにマルチモーダルな知識を注入する新パラダイムを提案する。
提案したパラダイムはCPathの事前トレーニングのワークフローに革命をもたらす。
論文 参考訳(メタデータ) (2024-07-22T04:09:27Z) - Erasing the Bias: Fine-Tuning Foundation Models for Semi-Supervised Learning [4.137391543972184]
半教師付き学習(SSL)は目覚ましい進歩をみせており、多くの方法のバリエーションをもたらしている。
本稿では,FinSSLという新しいSSLアプローチを提案する。
我々は、FineSSLが複数のベンチマークデータセットにSSLの新たな状態を設定し、トレーニングコストを6倍以上削減し、さまざまな微調整と現代的なSSLアルゴリズムをシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-05-20T03:33:12Z) - Transcriptomics-guided Slide Representation Learning in Computational Pathology [9.192285155829499]
自己教師付き学習(SSL)は、小さな組織像(224x224ピクセル)のパッチ埋め込みの構築に成功している。
ここでは、遺伝子発現プロファイルからの補完情報を利用して、マルチモーダル事前学習を用いたスライド表現学習をガイドする。
我々のSlide and Expression(S+E)事前学習戦略はTangleと呼ばれ、モダリティ固有のエンコーダを用いており、その出力はコントラスト学習によって整列される。
論文 参考訳(メタデータ) (2024-05-19T17:17:35Z) - PRISM: A Multi-Modal Generative Foundation Model for Slide-Level Histopathology [9.556246087301883]
我々は,Virchhowタイルの埋め込みを基盤としたH&E染色組織学のスライドレベル基盤モデルPRISMを提案する。
PRISMは、臨床報告を生成する能力を持つスライドレベルの埋め込みを生成し、いくつかのモードで使用される。
テキストプロンプトを用いて、PRISMは教師付きアグリゲータモデルに近づいたゼロショットがん検出とサブタイピング性能を達成する。
論文 参考訳(メタデータ) (2024-05-16T16:59:12Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - SkeletonMAE: Graph-based Masked Autoencoder for Skeleton Sequence
Pre-training [110.55093254677638]
我々はSkeleton Sequence Learning(SSL)という,効率的なスケルトンシーケンス学習フレームワークを提案する。
本論文では,SkeletonMAEという非対称なグラフベースのエンコーダデコーダ事前学習アーキテクチャを構築する。
我々のSSLは、さまざまなデータセットにまたがってうまく一般化し、最先端の自己教師型スケルトンベースのアクション認識手法よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T13:33:11Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Boosting Few-Shot Learning With Adaptive Margin Loss [109.03665126222619]
本稿では,数ショット学習問題に対するメートル法に基づくメタラーニング手法の一般化能力を改善するための適応的マージン原理を提案する。
大規模な実験により,提案手法は,現在のメートル法に基づくメタラーニング手法の性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2020-05-28T07:58:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。