論文の概要: Unsupervised Foundation Model-Agnostic Slide-Level Representation Learning
- arxiv url: http://arxiv.org/abs/2411.13623v2
- Date: Mon, 16 Dec 2024 10:34:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:50:16.780052
- Title: Unsupervised Foundation Model-Agnostic Slide-Level Representation Learning
- Title(参考訳): 教師なし基礎モデル-非教師なしスライドレベル表現学習
- Authors: Tim Lenz, Peter Neidlinger, Marta Ligero, Georg Wölflein, Marko van Treeck, Jakob Nikolas Kather,
- Abstract要約: 自己教師付き学習は、パッチ埋め込み生成のための組織モデル(FM)の訓練に成功している。
本稿では,有用なスライド表現を生成する単一モダリティSSL方式を提案する。
対照的な事前学習戦略はCOBRAと呼ばれ、複数のFMとMamba-2に基づくアーキテクチャを採用している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Representation learning of pathology whole-slide images(WSIs) has primarily relied on weak supervision with Multiple Instance Learning (MIL). This approach leads to slide representations highly tailored to a specific clinical task. Self-supervised learning (SSL) has been successfully applied to train histopathology foundation models (FMs) for patch embedding generation. However, generating patient or slide level embeddings remains challenging. Existing approaches for slide representation learning extend the principles of SSL from patch level learning to entire slides by aligning different augmentations of the slide or by utilizing multimodal data. By integrating tile embeddings from multiple FMs, we propose a new single modality SSL method in feature space that generates useful slide representations. Our contrastive pretraining strategy, called COBRA, employs multiple FMs and an architecture based on Mamba-2. COBRA exceeds performance of state-of-the-art slide encoders on four different public Clinical Protemic Tumor Analysis Consortium (CPTAC) cohorts on average by at least +4.5% AUC, despite only being pretrained on 3048 WSIs from The Cancer Genome Atlas (TCGA). Additionally, COBRA is readily compatible at inference time with previously unseen feature extractors. Code available at https://github.com/KatherLab/COBRA.
- Abstract(参考訳): 病理画像全体(WSI)の表現学習は、主にMIL(Multiple Instance Learning)による弱い監督に依存している。
このアプローチは、特定の臨床的タスクに高度に適合したスライド表現をもたらす。
自己教師付き学習(SSL)は、パッチ埋め込み生成のための組織学的基礎モデル(FM)の訓練に成功している。
しかし、患者やスライドレベルの埋め込みの生成は依然として困難である。
既存のスライド表現学習のアプローチでは、SSLの原則をパッチレベルの学習から、スライドの異なる拡張を調整したり、マルチモーダルデータを活用することで、スライド全体へと拡張している。
複数のFMからタイル埋め込みを統合することで,有用なスライド表現を生成する単一モダリティSSL法を提案する。
対照的な事前学習戦略はCOBRAと呼ばれ、複数のFMとMamba-2に基づくアーキテクチャを採用している。
COBRAは、The Cancer Genome Atlas (TCGA)の3048 WSIsでのみ事前訓練されているにもかかわらず、CPTACコホートを平均で4.5%以上上回っている。
さらに、COBRAは、これまで見えなかった特徴抽出器と推論時に容易に互換性がある。
コードはhttps://github.com/KatherLab/COBRAで公開されている。
関連論文リスト
- SLCA++: Unleash the Power of Sequential Fine-tuning for Continual Learning with Pre-training [68.7896349660824]
本稿では,Seq FTのレンズからの進行オーバーフィッティング問題を詳細に解析する。
過度に高速な表現学習と偏りのある分類層がこの問題を構成することを考慮し、先進的なSlow Learner with Alignment(S++)フレームワークを導入する。
提案手法は,バックボーンパラメータの学習率を選択的に減少させるスローラーナーと,ポストホック方式で不規則な分類層を整列させるアライメントを含む。
論文 参考訳(メタデータ) (2024-08-15T17:50:07Z) - Multistain Pretraining for Slide Representation Learning in Pathology [7.564260323883271]
自己教師付き学習モデルは、全スライド画像の普遍的および伝達可能な表現を学習することができる。
スライド表現学習のためのマルチモーダル事前学習戦略であるMadeleineを導入する。
マドレーヌが様々な下流評価で学んだスライド表現の質を実証する。
論文 参考訳(メタデータ) (2024-08-05T22:59:50Z) - A Multimodal Knowledge-enhanced Whole-slide Pathology Foundation Model [13.96693863133633]
スライド画像全体のH&E診断と関連する病理報告とRNA-Seqデータからなる最大マルチモーダルデータセットをキュレートした。
そこで,本論文では,病的FMにマルチモーダルな知識を注入する新パラダイムを提案する。
提案したパラダイムはCPathの事前トレーニングのワークフローに革命をもたらす。
論文 参考訳(メタデータ) (2024-07-22T04:09:27Z) - Transcriptomics-guided Slide Representation Learning in Computational Pathology [9.192285155829499]
自己教師付き学習(SSL)は、小さな組織像(224x224ピクセル)のパッチ埋め込みの構築に成功している。
ここでは、遺伝子発現プロファイルからの補完情報を利用して、マルチモーダル事前学習を用いたスライド表現学習をガイドする。
我々のSlide and Expression(S+E)事前学習戦略はTangleと呼ばれ、モダリティ固有のエンコーダを用いており、その出力はコントラスト学習によって整列される。
論文 参考訳(メタデータ) (2024-05-19T17:17:35Z) - PRISM: A Multi-Modal Generative Foundation Model for Slide-Level Histopathology [9.556246087301883]
我々は,Virchhowタイルの埋め込みを基盤としたH&E染色組織学のスライドレベル基盤モデルPRISMを提案する。
PRISMは、臨床報告を生成する能力を持つスライドレベルの埋め込みを生成し、いくつかのモードで使用される。
テキストプロンプトを用いて、PRISMは教師付きアグリゲータモデルに近づいたゼロショットがん検出とサブタイピング性能を達成する。
論文 参考訳(メタデータ) (2024-05-16T16:59:12Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - SkeletonMAE: Graph-based Masked Autoencoder for Skeleton Sequence
Pre-training [110.55093254677638]
我々はSkeleton Sequence Learning(SSL)という,効率的なスケルトンシーケンス学習フレームワークを提案する。
本論文では,SkeletonMAEという非対称なグラフベースのエンコーダデコーダ事前学習アーキテクチャを構築する。
我々のSSLは、さまざまなデータセットにまたがってうまく一般化し、最先端の自己教師型スケルトンベースのアクション認識手法よりも優れています。
論文 参考訳(メタデータ) (2023-07-17T13:33:11Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - ConCL: Concept Contrastive Learning for Dense Prediction Pre-training in
Pathology Images [47.43840961882509]
自己教師型学習は、このようなアノテーションの多いタスクにアピールする。
病理画像における高密度予測タスクのためのSSLメソッドのベンチマークを最初に行った。
本研究では,高密度事前学習のためのSSLフレームワークであるコントラスト学習(ConCL)を提案する。
論文 参考訳(メタデータ) (2022-07-14T08:38:17Z) - Self-Supervised Deep Learning to Enhance Breast Cancer Detection on
Screening Mammography [2.9082470896148425]
本稿では、この問題を解決するために、強化に基づく自己教師付き学習(SSL)技術について検討する。
乳がん検出を例として,まずマンモグラム特異的な形質転換パラダイムを同定する。
本研究では,一様タイル付きパッチの予測から画像全体への事前学習モデルを変換する手法と,分類性能を向上させるアテンションベースプーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T03:47:01Z) - AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning [112.95742995816367]
FSFSLと呼ばれる新しい数発のスナップショット・ラーニング・セッティングを提案する。
FSFSLでは、ソースクラスとターゲットクラスの両方に限られたトレーニングサンプルがある。
また,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T10:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。