論文の概要: Transcriptomics-guided Slide Representation Learning in Computational Pathology
- arxiv url: http://arxiv.org/abs/2405.11618v1
- Date: Sun, 19 May 2024 17:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-21 15:02:50.790759
- Title: Transcriptomics-guided Slide Representation Learning in Computational Pathology
- Title(参考訳): 計算病理学におけるトランスクリプトミクス誘導型スライド表現学習
- Authors: Guillaume Jaume, Lukas Oldenburg, Anurag Vaidya, Richard J. Chen, Drew F. K. Williamson, Thomas Peeters, Andrew H. Song, Faisal Mahmood,
- Abstract要約: 自己教師付き学習(SSL)は、小さな組織像(224x224ピクセル)のパッチ埋め込みの構築に成功している。
ここでは、遺伝子発現プロファイルからの補完情報を利用して、マルチモーダル事前学習を用いたスライド表現学習をガイドする。
我々のSlide and Expression(S+E)事前学習戦略はTangleと呼ばれ、モダリティ固有のエンコーダを用いており、その出力はコントラスト学習によって整列される。
- 参考スコア(独自算出の注目度): 9.192285155829499
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-supervised learning (SSL) has been successful in building patch embeddings of small histology images (e.g., 224x224 pixels), but scaling these models to learn slide embeddings from the entirety of giga-pixel whole-slide images (WSIs) remains challenging. Here, we leverage complementary information from gene expression profiles to guide slide representation learning using multimodal pre-training. Expression profiles constitute highly detailed molecular descriptions of a tissue that we hypothesize offer a strong task-agnostic training signal for learning slide embeddings. Our slide and expression (S+E) pre-training strategy, called Tangle, employs modality-specific encoders, the outputs of which are aligned via contrastive learning. Tangle was pre-trained on samples from three different organs: liver (n=6,597 S+E pairs), breast (n=1,020), and lung (n=1,012) from two different species (Homo sapiens and Rattus norvegicus). Across three independent test datasets consisting of 1,265 breast WSIs, 1,946 lung WSIs, and 4,584 liver WSIs, Tangle shows significantly better few-shot performance compared to supervised and SSL baselines. When assessed using prototype-based classification and slide retrieval, Tangle also shows a substantial performance improvement over all baselines. Code available at https://github.com/mahmoodlab/TANGLE.
- Abstract(参考訳): 自己教師付き学習(SSL)は、小さなヒストロジー画像(例:224x224ピクセル)のパッチ埋め込みを構築するのに成功しているが、これらのモデルをスケールして、ギガピクセル全体スライディング画像(WSI)全体からスライド埋め込みを学ぶことは、依然として困難である。
ここでは、遺伝子発現プロファイルからの補完情報を利用して、マルチモーダル事前学習を用いたスライド表現学習をガイドする。
表現プロファイルは、スライド埋め込みを学習するための強力なタスク非依存の訓練信号を提供すると仮定した組織について、非常に詳細な分子的記述を構成する。
我々のSlide and Expression(S+E)事前学習戦略はTangleと呼ばれ、モダリティ固有のエンコーダを用いており、その出力はコントラスト学習によって整列される。
肝臓 (n=6,597 S+Eペア), 乳房 (n=1,020), 肺 (n=1,012) の3種類の異なる臓器 (Homo sapiens と Rattus Norvegicus) から採取した。
1,265個の乳房WSI,1,946個の肺WSI,4,584個の肝WSIからなる独立した3つのテストデータセットにおいて、Tangleは教師付きおよびSSLベースラインと比較して、極めて優れた数ショット性能を示した。
プロトタイプベースの分類とスライド検索を用いて評価すると、Tangleはすべてのベースラインに対して大幅なパフォーマンス向上を示している。
コードはhttps://github.com/mahmoodlab/TANGLE.comで公開されている。
関連論文リスト
- Unsupervised Foundation Model-Agnostic Slide-Level Representation Learning [0.0]
本稿では,有用なスライド表現を生成する単一モダリティSSL法を提案する。
対照的な事前学習戦略はCOBRAと呼ばれ、複数のFMとMamba-2に基づくアーキテクチャを採用している。
COBRAは4種類のCPTACコホート上で、最先端のスライドエンコーダの性能を少なくとも3.8%上回っている。
論文 参考訳(メタデータ) (2024-11-20T13:12:43Z) - Multistain Pretraining for Slide Representation Learning in Pathology [7.564260323883271]
自己教師付き学習モデルは、全スライド画像の普遍的および伝達可能な表現を学習することができる。
スライド表現学習のためのマルチモーダル事前学習戦略であるMadeleineを導入する。
マドレーヌが様々な下流評価で学んだスライド表現の質を実証する。
論文 参考訳(メタデータ) (2024-08-05T22:59:50Z) - Wound Tissue Segmentation in Diabetic Foot Ulcer Images Using Deep Learning: A Pilot Study [5.397013836968946]
我々は,創部組織分割アルゴリズムを評価するためのDFUT草案データセットを作成した。
データセットには110枚の画像と、創傷の専門家によってラベル付けされた組織、600枚の未ラベル画像が含まれている。
注釈付きデータの量が限られているため、我々のフレームワークは、教師付き学習(SL)と半教師付き学習(SSL)の両方のフェーズで構成されている。
論文 参考訳(メタデータ) (2024-06-23T05:01:51Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - SegPrompt: Using Segmentation Map as a Better Prompt to Finetune Deep
Models for Kidney Stone Classification [62.403510793388705]
深層学習は、内視鏡画像を用いた腎臓結石分類のための奨励的な結果を生み出している。
注釈付きトレーニングデータの不足は、トレーニングされたモデルの性能と一般化能力を改善する上で深刻な問題を引き起こす。
本稿では,セグメンテーションマップを2つの側面から活用することにより,データ不足問題を軽減するためにSegPromptを提案する。
論文 参考訳(メタデータ) (2023-03-15T01:30:48Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Leveraging the Third Dimension in Contrastive Learning [88.17394309208925]
SSL(Self-Supervised Learning)メソッドは、ラベルのないデータでダウンストリームタスクに有用な堅牢な表現を学習する。
これらの拡張は、生物学的ビジョンが没入的な3次元、時間的に連続した環境で起こるという事実を無視している。
SSLフレームワークにディープシグナルを組み込むための2つの異なるアプローチについて検討する。
論文 参考訳(メタデータ) (2023-01-27T15:45:03Z) - Self-Supervised PPG Representation Learning Shows High Inter-Subject
Variability [3.8036939971290007]
本稿では,信号再構成を前提とした自己教師付き学習(SSL)手法を提案し,汎用的なPSG表現を学習する。
結果として、SSLを使用するラベルデータ設定(クラス毎に10のサンプル)が非常に限定されていることが分かる。
SSLは、ラベルスカースレジームにおけるPSGデータに機械学習モデルが広く使われるための道を開くかもしれない。
論文 参考訳(メタデータ) (2022-12-07T19:02:45Z) - Giga-SSL: Self-Supervised Learning for Gigapixel Images [0.8029049649310211]
全スライド画像(WSI)は、医療現場で診断と治療のために定期的に準備された染色組織スライドの顕微鏡画像である。
現在の最先端(SoTA)アプローチでは、WSIはそれらをタイルに分類し、事前訓練されたネットワークでエンコードし、MIL(Multiple Instance Learning)を適用して、特定の下流タスクのトレーニングを行います。
本稿では,強力なスライド表現を推論するアノテーションを使わずに,多数のWSIを活用するためのスライドレベルSSLの戦略を提案する。
論文 参考訳(メタデータ) (2022-12-06T19:09:19Z) - Generative Zero-Shot Learning for Semantic Segmentation of 3D Point
Cloud [79.99653758293277]
本稿では,ZSL(Zero-Shot Learning)とGZSL(Generalized ZSL)の両方を3次元データ上に生成する手法を提案する。
インダクティブZSLとインダクティブGZSLの両方に対して,ModelNet40分類における技術状況に到達または向上することを示す。
実験の結果,本手法は強いベースラインよりも優れており,さらに本手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T13:29:27Z) - Medical Instrument Segmentation in 3D US by Hybrid Constrained
Semi-Supervised Learning [62.13520959168732]
3DUSにおける楽器セグメンテーションのための半教師付き学習フレームワークを提案する。
SSL学習を実現するため、Dual-UNetが提案されている。
提案手法は,Diceの約68.6%-69.1%,推定時間約1秒を実現している。
論文 参考訳(メタデータ) (2021-07-30T07:59:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。