論文の概要: LLM-driven Knowledge Enhancement for Multimodal Cancer Survival Prediction
- arxiv url: http://arxiv.org/abs/2512.14594v1
- Date: Tue, 16 Dec 2025 17:03:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.804879
- Title: LLM-driven Knowledge Enhancement for Multimodal Cancer Survival Prediction
- Title(参考訳): マルチモーダル癌生存予測のためのLCMによる知識向上
- Authors: Chenyu Zhao, Yingxue Xu, Fengtao Zhou, Yihui Wang, Hao Chen,
- Abstract要約: がん生存予測のためのLLM駆動知識強化マルチモーダルモデルであるKEMMを提案する。
KEMMは専門家のレポートと予後の背景知識を統合している。
ネットワークを効果的に誘導し、非常に冗長なモダリティから差別的および生存関連機能に焦点を合わせることができる。
- 参考スコア(独自算出の注目度): 19.586576523290027
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current multimodal survival prediction methods typically rely on pathology images (WSIs) and genomic data, both of which are high-dimensional and redundant, making it difficult to extract discriminative features from them and align different modalities. Moreover, using a simple survival follow-up label is insufficient to supervise such a complex task. To address these challenges, we propose KEMM, an LLM-driven Knowledge-Enhanced Multimodal Model for cancer survival prediction, which integrates expert reports and prognostic background knowledge. 1) Expert reports, provided by pathologists on a case-by-case basis and refined by large language model (LLM), offer succinct and clinically focused diagnostic statements. This information may typically suggest different survival outcomes. 2) Prognostic background knowledge (PBK), generated concisely by LLM, provides valuable prognostic background knowledge on different cancer types, which also enhances survival prediction. To leverage these knowledge, we introduce the knowledge-enhanced cross-modal (KECM) attention module. KECM can effectively guide the network to focus on discriminative and survival-relevant features from highly redundant modalities. Extensive experiments on five datasets demonstrate that KEMM achieves state-of-the-art performance. The code will be released upon acceptance.
- Abstract(参考訳): 現在のマルチモーダル生存予測法は、一般的に、高次元かつ冗長な病理画像(WSI)とゲノムデータに依存しており、それらから識別的特徴を抽出し、異なるモダリティを整列させることが困難である。
さらに、単純なサバイバルフォローアップラベルを使用することで、そのような複雑なタスクを監督するには不十分である。
これらの課題に対処するために、我々は、専門家レポートと予後の背景知識を統合した、LLM駆動のがん生存予測のための知識強化マルチモーダルモデルであるKEMMを提案する。
1)病理医がケースバイケースで提供し,大言語モデル(LLM)で精査した専門家報告は,簡潔で臨床的に焦点を絞った診断文を提供する。
この情報は、通常、異なる生存結果を示す。
2) LLM が簡潔に生成した予後背景知識 (PBK) は, 癌の種類による予後背景知識として有用であり, 生存予測の促進にも寄与する。
これらの知識を活用するために,知識強化型クロスモーダル(KECM)アテンションモジュールを導入する。
KECMはネットワークを効果的に誘導し、高度に冗長なモダリティから差別的および生存関連機能に焦点を合わせることができる。
5つのデータセットに対する大規模な実験は、KEMMが最先端のパフォーマンスを達成することを示す。
コードは受理時にリリースされます。
関連論文リスト
- SurvAgent: Hierarchical CoT-Enhanced Case Banking and Dichotomy-Based Multi-Agent System for Multimodal Survival Prediction [49.355973075150075]
マルチモーダルサバイバル予測のための最初の階層的チェーン・オブ・シント(CoT)強化マルチエージェントシステムであるSurvAgentを紹介する。
SurvAgentは2つの段階から構成される: WSI-Gene CoT-Enhanced Case Bank Constructionは、低磁化スクリーニング、クロスモーダル類似性-アウェアパッチマイニング、および病理画像に対する信頼-アウェアパッチマイニングを通じて階層解析を使用する。
二分法に基づくMulti-Expert Agent Inferenceは、RAGを介して類似の事例を検索し、段階的間隔改善による専門家予測とマルチモーダルレポートを統合する。
論文 参考訳(メタデータ) (2025-11-20T18:41:44Z) - RAD: Towards Trustworthy Retrieval-Augmented Multi-modal Clinical Diagnosis [56.373297358647655]
Retrieval-Augmented Diagnosis (RAD)は、下流タスクで直接マルチモーダルモデルに外部知識を注入する新しいフレームワークである。
RADは、複数の医療ソースからの疾患中心の知識の検索と改善、ガイドライン強化コントラスト損失トランスフォーマー、デュアルデコーダの3つの主要なメカニズムで機能する。
論文 参考訳(メタデータ) (2025-09-24T10:36:14Z) - Deep Survival Analysis in Multimodal Medical Data: A Parametric and Probabilistic Approach with Competing Risks [47.19194118883552]
単一リスクシナリオと競合リスクシナリオの両方をモデル化可能な生存分析のためのマルチモーダルディープラーニングフレームワークを提案する。
生存予測のための新しいディープラーニングアーキテクチャであるSAMVAE(Survival Analysis Multimodal Variational Autoencoder)を提案する。
論文 参考訳(メタデータ) (2025-07-10T14:29:48Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - M2EF-NNs: Multimodal Multi-instance Evidence Fusion Neural Networks for Cancer Survival Prediction [24.323961146023358]
本稿では,M2EF-NNと呼ばれるニューラルネットワークモデルを提案する。
画像中のグローバル情報をキャプチャするために、事前訓練された視覚変換器(ViT)モデルを用いる。
Dempster-Shaferエビデンス理論(DST)を癌生存予測に適用した最初の例である。
論文 参考訳(メタデータ) (2024-08-08T02:31:04Z) - Cohort-Individual Cooperative Learning for Multimodal Cancer Survival Analysis [10.587791312973872]
がんの生存率分析を促進するためのCohort-individual Cooperative Learningフレームワークを提案する。
知識分解とコホート指導手法の協調により,頑健なマルチモーダルサバイバル分析モデルを構築した。
論文 参考訳(メタデータ) (2024-04-03T01:36:27Z) - SELECTOR: Heterogeneous graph network with convolutional masked autoencoder for multimodal robust prediction of cancer survival [8.403756148610269]
がん患者生存のマルチモーダル予測は、より包括的で正確なアプローチを提供する。
本稿では、畳み込みマスクエンコーダに基づく異種グラフ認識ネットワークであるSELECTORを紹介する。
本手法は,モダリティ欠落とモダリティ内情報確認の両事例において,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-14T11:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。