論文の概要: Multimodal Feature Prototype Learning for Interpretable and Discriminative Cancer Survival Prediction
- arxiv url: http://arxiv.org/abs/2510.06113v1
- Date: Tue, 07 Oct 2025 16:49:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.362432
- Title: Multimodal Feature Prototype Learning for Interpretable and Discriminative Cancer Survival Prediction
- Title(参考訳): 解釈型・識別型癌生存予測のためのマルチモーダル特徴型学習
- Authors: Shuo Jiang, Zhuwen Chen, Liaoman Xu, Yanming Zhu, Changmiao Wang, Jiong Zhang, Feiwei Qin, Yifei Chen, Zhu Zhu,
- Abstract要約: 本稿では,がん生存予測の強化を目的とした,革新的なプロトタイプベースのマルチモーダルフレームワークFeatProtoを紹介する。
本フレームワークは,スライド画像全体(WSI)のグローバルな特徴と局所的な特徴をゲノムプロファイルと統合する。
本手法は,既存の一様・多様生存予測手法を精度,相互運用性ともに超越した手法である。
- 参考スコア(独自算出の注目度): 15.83495701073124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Survival analysis plays a vital role in making clinical decisions. However, the models currently in use are often difficult to interpret, which reduces their usefulness in clinical settings. Prototype learning presents a potential solution, yet traditional methods focus on local similarities and static matching, neglecting the broader tumor context and lacking strong semantic alignment with genomic data. To overcome these issues, we introduce an innovative prototype-based multimodal framework, FeatProto, aimed at enhancing cancer survival prediction by addressing significant limitations in current prototype learning methodologies within pathology. Our framework establishes a unified feature prototype space that integrates both global and local features of whole slide images (WSI) with genomic profiles. This integration facilitates traceable and interpretable decision-making processes. Our approach includes three main innovations: (1) A robust phenotype representation that merges critical patches with global context, harmonized with genomic data to minimize local bias. (2) An Exponential Prototype Update Strategy (EMA ProtoUp) that sustains stable cross-modal associations and employs a wandering mechanism to adapt prototypes flexibly to tumor heterogeneity. (3) A hierarchical prototype matching scheme designed to capture global centrality, local typicality, and cohort-level trends, thereby refining prototype inference. Comprehensive evaluations on four publicly available cancer datasets indicate that our method surpasses current leading unimodal and multimodal survival prediction techniques in both accuracy and interoperability, providing a new perspective on prototype learning for critical medical applications. Our source code is available at https://github.com/JSLiam94/FeatProto.
- Abstract(参考訳): 生存分析は臨床的な決定を下す上で重要な役割を担っている。
しかし、現在使われているモデルは解釈が難しい場合が多く、臨床現場での有用性が低下する。
原型学習は潜在的な解決策であるが、従来の手法は局所的な類似性や静的なマッチングに重点を置いており、より広い腫瘍コンテキストを無視し、ゲノムデータとの強い意味的整合を欠いている。
これらの課題を克服するために,我々は,がんの生存率を予測するための新しいプロトタイプベースのマルチモーダルフレームワークFeatProtoを紹介した。
本フレームワークは,スライド画像全体(WSI)のグローバルな特徴とローカルな特徴をゲノムプロファイルと統合した,統合された機能プロトタイプ空間を確立する。
この統合は、トレーサブルで解釈可能な意思決定プロセスを促進する。
1) 局所バイアスを最小限に抑えるために、ゲノムデータと調和して重要なパッチをグローバルな文脈にマージする堅牢な表現型表現。
2) EMA Prototype Update Strategy (Exponential Prototype Update Strategy, EMA ProtoUp) は, 安定したクロスモーダルアソシエーションを維持し, 腫瘍の均一性に柔軟に対応するために, 移動機構を採用している。
(3)グローバルな中心性、局所的な典型性、コホートレベルの傾向を捉えるために設計された階層型プロトタイプマッチングスキームにより、プロトタイプの推論を洗練する。
一般に公開されている4つのがんデータセットの総合的な評価は,本手法が現在主流となっている一過性および多モーダル生存予測技術を精度と相互運用性の両方で超越していることを示し,重要な医療応用のためのプロトタイプ学習の新たな視点を提供する。
ソースコードはhttps://github.com/JSLiam94/FeatProto.comから入手可能です。
関連論文リスト
- PS3: A Multimodal Transformer Integrating Pathology Reports with Histology Images and Biological Pathways for Cancer Survival Prediction [2.638791169659607]
計算オンコロジーにおける現在のマルチモーダル融合アプローチは、主に、複数のギガピクセルのヒストロジー全体のスライド画像(WSI)をゲノムデータや転写データと統合することに焦点を当てている。
本稿では,両立表現を生成するプロトタイプベースの手法を提案し,生存予測のためにTransformerベースの融合モデルを用いて統合する。
論文 参考訳(メタデータ) (2025-09-24T11:37:52Z) - Prototype-Guided Cross-Modal Knowledge Enhancement for Adaptive Survival Prediction [12.14067843712642]
ProSurvはプロトタイプ指向のクロスモーダル知識強化フレームワークである。
ペア化されたデータへの依存を排除し、堅牢な学習と適応型生存予測を可能にする。
4つの公開データセットに対する大規模な実験は、最先端の手法よりもProSurvの方が優れていることを示している。
論文 参考訳(メタデータ) (2025-03-13T11:38:11Z) - Multi-Modal Mamba Modeling for Survival Prediction (M4Survive): Adapting Joint Foundation Model Representations [0.6990493129893112]
M4Surviveは、効率的なアダプタネットワークを用いて、共同基盤モデル表現を学習する新しいフレームワークである。
Mambaベースのアダプタを利用することで、M4Surviveは計算効率を保ちながら効率的なマルチモーダル学習を可能にする。
この研究は、精度オンコロジーと予測分析の進歩における基礎モデル駆動型マルチモーダル融合の可能性を明らかにする。
論文 参考訳(メタデータ) (2025-03-13T05:18:32Z) - Adaptive Prototype Learning for Multimodal Cancer Survival Analysis [8.179859593451285]
本稿では, 適応型プロトタイプ学習(Adaptive Prototype Learning, APL)を提案する。
APLはデータ駆動方式で代表プロトタイプを適応的に学習し、重要な情報を保持しながら冗長性を低下させる。
本手法では,高次元表現と生存予測の橋渡しとして,学習可能な2つのクエリベクトルを用いる。
論文 参考訳(メタデータ) (2025-03-06T17:32:15Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - M2EF-NNs: Multimodal Multi-instance Evidence Fusion Neural Networks for Cancer Survival Prediction [24.323961146023358]
本稿では,M2EF-NNと呼ばれるニューラルネットワークモデルを提案する。
画像中のグローバル情報をキャプチャするために、事前訓練された視覚変換器(ViT)モデルを用いる。
Dempster-Shaferエビデンス理論(DST)を癌生存予測に適用した最初の例である。
論文 参考訳(メタデータ) (2024-08-08T02:31:04Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。