論文の概要: Cross-Stain Contrastive Learning for Paired Immunohistochemistry and Histopathology Slide Representation Learning
- arxiv url: http://arxiv.org/abs/2512.03577v1
- Date: Wed, 03 Dec 2025 09:00:27 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:06:19.592881
- Title: Cross-Stain Contrastive Learning for Paired Immunohistochemistry and Histopathology Slide Representation Learning
- Title(参考訳): ペアリング免疫組織化学と病理組織スライド表現学習のためのクロスステインコントラスト学習
- Authors: Yizhi Zhang, Lei Fan, Zhulin Tao, Donglin Di, Yang Song, Sidong Liu, Cong Cong,
- Abstract要約: 普遍的、転送可能な全スライド画像(WSI)表現は、計算病理学の中心である。
複数のマーカー(化学、IHCなど)をH&Eと組み合わせることで、多様な生物学的に意味のある情報でH&Eベースの特徴を豊かにすることができる。
そこで我々は,H&E,HER2,KI67,ER,PGRという5段階のデータセットを解析し,ペア化されたH&E-IHC学習と堅牢なクロスステイン表現を実現した。
- 参考スコア(独自算出の注目度): 15.015056157783173
- License:
- Abstract: Universal, transferable whole-slide image (WSI) representations are central to computational pathology. Incorporating multiple markers (e.g., immunohistochemistry, IHC) alongside H&E enriches H&E-based features with diverse, biologically meaningful information. However, progress is limited by the scarcity of well-aligned multi-stain datasets. Inter-stain misalignment shifts corresponding tissue across slides, hindering consistent patch-level features and degrading slide-level embeddings. To address this, we curated a slide-level aligned, five-stain dataset (H&E, HER2, KI67, ER, PGR) to enable paired H&E-IHC learning and robust cross-stain representation. Leveraging this dataset, we propose Cross-Stain Contrastive Learning (CSCL), a two-stage pretraining framework with a lightweight adapter trained using patch-wise contrastive alignment to improve the compatibility of H&E features with corresponding IHC-derived contextual cues, and slide-level representation learning with Multiple Instance Learning (MIL), which uses a cross-stain attention fusion module to integrate stain-specific patch features and a cross-stain global alignment module to enforce consistency among slide-level embeddings across different stains. Experiments on cancer subtype classification, IHC biomarker status classification, and survival prediction show consistent gains, yielding high-quality, transferable H&E slide-level representations. The code and data are available at https://github.com/lily-zyz/CSCL.
- Abstract(参考訳): 普遍的、転送可能な全スライド画像(WSI)表現は、計算病理学の中心である。
複数のマーカー(例えば免疫組織化学、IHC)をH&Eと共に組み込むことは、多様な生物学的に意味のある情報でH&Eベースの特徴を豊かにする。
しかし、高度に整合したマルチステインデータセットの不足により、進捗は制限される。
安定したミスアライメントは、スライド全体で対応する組織をシフトさせ、一貫したパッチレベルの特徴を妨げ、スライドレベルの埋め込みを低下させる。
そこで我々は,H&E,HER2,KI67,ER,PGRという5段階のデータセットを解析し,ペア化されたH&E-IHC学習と堅牢なクロスステイン表現を実現した。
本データセットを応用したCSCL(Cross-Stain Contrastive Learning)は、パッチ指向のコンテクストキューとH&E機能の互換性を改善するために、パッチワイトコントラストアライメントを用いてトレーニングされた軽量なアダプタを備えた2段階事前学習フレームワークである。
がんのサブタイプ分類、IHCバイオマーカーのステータス分類、生存予測の実験は、高品質で転移可能なH&Eスライドレベルの表現をもたらす一貫した利得を示した。
コードとデータはhttps://github.com/lily-zyz/CSCLで公開されている。
関連論文リスト
- SG-CLDFF: A Novel Framework for Automated White Blood Cell Classification and Segmentation [0.0]
SG-CLDFF(Saliency-Guided Cross-Layer Deep Feature Fusion framework)
軽量なハイブリッドバックボーン(Swin-style)は、ResNeXt-CCinspired cross-layer fusion moduleによって融合されたマルチレゾリューション表現を生成する。
解釈性はGrad-CAMビジュアライゼーションと唾液濃度の整合性チェックを通じて実施され、モデル決定を地域レベルで検査することができる。
論文 参考訳(メタデータ) (2025-10-20T08:07:39Z) - HMIL: Hierarchical Multi-Instance Learning for Fine-Grained Whole Slide Image Classification [10.203984731917851]
全スライド画像(WSI)のきめ細かい分類は、正確な癌診断とパーソナライズされた治療戦略を可能にする、精密腫瘍学において不可欠である。
マルチインスタンス学習(MIL)パラダイムはWSIの計算負担を軽減するが、既存のMIL手法は階層的なラベル相関を無視することが多い。
本稿では,これらの制約を克服する新しい階層型マルチインスタンス学習(HMIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-12T09:22:00Z) - PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - A self-supervised framework for learning whole slide representations [52.774822784847565]
我々は、全スライド画像のギガピクセルスケールの自己スーパービジョンのためのSlide Pre-trained Transformer (SPT)を提案する。
バイオメディカル・マイクロスコープ・データセットを用いて,5つの診断課題におけるSPT視覚表現のベンチマークを行った。
論文 参考訳(メタデータ) (2024-02-09T05:05:28Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - SMC-NCA: Semantic-guided Multi-level Contrast for Semi-supervised Temporal Action Segmentation [53.010417880335424]
半教師付き時間的アクションセグメンテーション(SS-TA)は、長編ビデオにおいてフレームワイズ分類を行うことを目的としている。
近年の研究では、教師なし表現学習におけるコントラスト学習の可能性が示されている。
本稿では,SMC-NCA(Neighbourhood-Consistency-Aware Unit)を用いたセマンティック誘導型マルチレベルコントラスト方式を提案する。
論文 参考訳(メタデータ) (2023-12-19T17:26:44Z) - Graph-Aware Contrasting for Multivariate Time-Series Classification [50.84488941336865]
既存のコントラスト学習手法は主に、時間的拡張とコントラスト技術による時間的一貫性を達成することに焦点を当てている。
MTSデータ間の空間的整合性を考慮したグラフ認識コントラストを提案する。
提案手法は,様々なMSS分類タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-11T02:35:22Z) - Multi-Scale Cross Contrastive Learning for Semi-Supervised Medical Image
Segmentation [14.536384387956527]
医用画像の構造を分割するマルチスケールクロススーパービジョンコントラスト学習フレームワークを開発した。
提案手法は,頑健な特徴表現を抽出するために,地上構造と横断予測ラベルに基づくマルチスケール特徴と対比する。
Diceでは最先端の半教師あり手法を3.0%以上上回っている。
論文 参考訳(メタデータ) (2023-06-25T16:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。