論文の概要: Prototype-driven fusion of pathology and spatial transcriptomics for interpretable survival prediction
- arxiv url: http://arxiv.org/abs/2602.12441v1
- Date: Thu, 12 Feb 2026 21:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.76864
- Title: Prototype-driven fusion of pathology and spatial transcriptomics for interpretable survival prediction
- Title(参考訳): 予後予測のためのプロトタイプ駆動による病理と空間転写学の融合
- Authors: Lihe Liu, Xiaoxi Pan, Yinyin Yuan, Lulu Shang,
- Abstract要約: 完全スライド画像(WSI)は、多重インスタンス学習(MIL)による弱教師付き予後モデリングを可能にする
空間転写学(ST)はin situ遺伝子の発現を保持し、形態を補完する空間分子コンテキストを提供する。
本稿では,WSIとSTを統合した解釈可能なエンドツーエンドフレームワークPathoSpatialを紹介する。
- 参考スコア(独自算出の注目度): 0.17835405096329152
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whole slide images (WSIs) enable weakly supervised prognostic modeling via multiple instance learning (MIL). Spatial transcriptomics (ST) preserves in situ gene expression, providing a spatial molecular context that complements morphology. As paired WSI-ST cohorts scale to population level, leveraging their complementary spatial signals for prognosis becomes crucial; however, principled cross-modal fusion strategies remain limited for this paradigm. To this end, we introduce PathoSpatial, an interpretable end-to-end framework integrating co-registered WSIs and ST to learn spatially informed prognostic representations. PathoSpatial uses task-guided prototype learning within a multi-level experts architecture, adaptively orchestrating unsupervised within-modality discovery with supervised cross-modal aggregation. By design, PathoSpatial substantially strengthens interpretability while maintaining discriminative ability. We evaluate PathoSpatial on a triple-negative breast cancer cohort with paired ST and WSIs. PathoSpatial delivers strong and consistent performance across five survival endpoints, achieving superior or comparable performance to leading unimodal and multimodal methods. PathoSpatial inherently enables post-hoc prototype interpretation and molecular risk decomposition, providing quantitative, biologically grounded explanations, highlighting candidate prognostic factors. We present PathoSpatial as a proof-of-concept for scalable and interpretable multimodal learning for spatial omics-pathology fusion.
- Abstract(参考訳): 全体スライド画像(WSI)は、マルチインスタンス学習(MIL)による弱い教師付き予後モデリングを可能にする。
空間転写学(ST)はin situ遺伝子の発現を保存し、形態を補完する空間分子コンテキストを提供する。
対のWSI-STコホートが人口レベルまで拡大するにつれ、相補的な空間信号を予後に活用することが重要である。
この目的のために,共同登録されたWSIとSTを統合した解釈可能なエンドツーエンドフレームワークであるPathoSpatialを導入し,空間情報に基づく予後表現を学習する。
PathoSpatialはマルチレベルのエキスパートアーキテクチャ内でタスク誘導型プロトタイプ学習を使用し、教師なし内部モダリティ発見と教師なしクロスモーダルアグリゲーションを適応的にオーケストレーションする。
設計上、PathoSpatialは識別能力を維持しながら解釈可能性を大幅に強化する。
STとWSIを併用した3重陰性乳癌コホートにおけるPathoSpatialの評価を行った。
PathoSpatialは5つのサバイバルエンドポイントにわたって強力で一貫したパフォーマンスを提供し、非モーダルおよびマルチモーダルメソッドをリードする上で、優れたパフォーマンスまたは同等のパフォーマンスを実現している。
PathoSpatialは本質的に、ポストホック後のプロトタイプの解釈と分子リスクの分解を可能にし、定量的で生物学的に根拠のある説明を提供し、候補の予後因子を強調している。
そこで我々はPathoSpatialを空間オミクス-病理融合のためのスケーラブルかつ解釈可能なマルチモーダル学習のための概念実証として提示する。
関連論文リスト
- Supervise Less, See More: Training-free Nuclear Instance Segmentation with Prototype-Guided Prompting [53.799446807827714]
核インスタンスセグメンテーションのための完全トレーニングおよびアノテーションなしプロンプトフレームワークであるSPROUTを紹介する。
SPROUTは、スライド固有の参照プロトタイプを構築するために、ヒストロジーインフォームドプリエントを利用する。
前景と背景の特徴は正および負の点のプロンプトに変換され、Segment Anything Model (SAM) は正確な核線を生成できる。
論文 参考訳(メタデータ) (2025-11-25T05:58:33Z) - SurvAgent: Hierarchical CoT-Enhanced Case Banking and Dichotomy-Based Multi-Agent System for Multimodal Survival Prediction [49.355973075150075]
マルチモーダルサバイバル予測のための最初の階層的チェーン・オブ・シント(CoT)強化マルチエージェントシステムであるSurvAgentを紹介する。
SurvAgentは2つの段階から構成される: WSI-Gene CoT-Enhanced Case Bank Constructionは、低磁化スクリーニング、クロスモーダル類似性-アウェアパッチマイニング、および病理画像に対する信頼-アウェアパッチマイニングを通じて階層解析を使用する。
二分法に基づくMulti-Expert Agent Inferenceは、RAGを介して類似の事例を検索し、段階的間隔改善による専門家予測とマルチモーダルレポートを統合する。
論文 参考訳(メタデータ) (2025-11-20T18:41:44Z) - Disentangled Multi-modal Learning of Histology and Transcriptomics for Cancer Characterization [30.456635152695483]
病理組織学は、がんの診断と予後における金の標準である。
転写学と組織学を組み合わせたマルチモーダル学習は、より包括的な情報を提供する。
既存のマルチモーダルなアプローチは、本質的なマルチモーダルな不均一性、不十分なマルチスケールな統合、ペアデータへの依存によって挑戦される。
論文 参考訳(メタデータ) (2025-08-22T15:51:33Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。