論文の概要: Bridging the gap between Performance and Interpretability: An Explainable Disentangled Multimodal Framework for Cancer Survival Prediction
- arxiv url: http://arxiv.org/abs/2603.02162v1
- Date: Mon, 02 Mar 2026 18:26:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:57.03132
- Title: Bridging the gap between Performance and Interpretability: An Explainable Disentangled Multimodal Framework for Cancer Survival Prediction
- Title(参考訳): パフォーマンスと解釈可能性のギャップを埋める:癌生存予測のための説明可能な分散多モードフレームワーク
- Authors: Aniek Eijpe, Soufyan Lakbir, Melis Erdal Cesur, Sara P. Oliveira, Angelos Chatzimparmpas, Sanne Abeln, Wilson Silva,
- Abstract要約: がん生存予測のためのマルチモーダルフレームワークであるDIMAFxを紹介する。
病理組織学的全スライディング画像と転写学的データから、不整形、解釈可能なモダリティ特有およびモダリティ共有表現を生成する。
複数のがんコホートにまたがって、DIMAFxは最先端のパフォーマンスを達成し、表現のゆがみを改善している。
- 参考スコア(独自算出の注目度): 2.267166016868981
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While multimodal survival prediction models are increasingly more accurate, their complexity often reduces interpretability, limiting insight into how different data sources influence predictions. To address this, we introduce DIMAFx, an explainable multimodal framework for cancer survival prediction that produces disentangled, interpretable modality-specific and modality-shared representations from histopathology whole-slide images and transcriptomics data. Across multiple cancer cohorts, DIMAFx achieves state-of-the-art performance and improved representation disentanglement. Leveraging its interpretable design and SHapley Additive exPlanations, DIMAFx systematically reveals key multimodal interactions and the biological information encoded in the disentangled representations. In breast cancer survival prediction, the most predictive features contain modality-shared information, including one capturing solid tumor morphology contextualized primarily by late estrogen response, where higher-grade morphology aligned with pathway upregulation and increased risk, consistent with known breast cancer biology. Key modality-specific features capture microenvironmental signals from interacting adipose and stromal morphologies. These results show that multimodal models can overcome the traditional trade-off between performance and explainability, supporting their application in precision medicine.
- Abstract(参考訳): マルチモーダルサバイバル予測モデルはますます正確になるが、その複雑さは解釈可能性を減らすことが多く、異なるデータソースが予測にどのように影響するかについての洞察を制限する。
そこで本研究では,癌生存予測のためのマルチモーダルフレームワークであるDIMAFxを紹介する。
複数のがんコホートにまたがって、DIMAFxは最先端のパフォーマンスを達成し、表現のゆがみを改善している。
解釈可能な設計とSHapley Additive exPlanationsを活用することで、DIMAFxは、重要なマルチモーダル相互作用と、非絡み合った表現に符号化された生物学的情報を体系的に明らかにする。
乳がん生存予測において、最も予測された特徴は、主に後期エストロゲン反応によって文脈化された固形腫瘍形態を捉えることを含む、モダリティ共有情報を含む。
鍵となるモダリティ特有の特徴は、相互作用する脂肪と間質の形態から微小環境信号をキャプチャする。
これらの結果から, マルチモーダルモデルは, 性能と説明可能性の伝統的なトレードオフを克服し, 精度医学への応用を支援することが示唆された。
関連論文リスト
- impuTMAE: Multi-modal Transformer with Masked Pre-training for Missing Modalities Imputation in Cancer Survival Prediction [75.43342771863837]
我々は,効率的なマルチモーダル事前学習戦略を備えた新しいトランスフォーマーに基づくエンドツーエンドアプローチである impuTMAE を紹介する。
マスクされたパッチを再構築することで、モダリティの欠如を同時に示唆しながら、モダリティ間の相互作用とモダリティ内相互作用を学習する。
本モデルは,TGA-GBM/LGGとBraTSデータセットを用いたグリオーマ生存予測のために,異種不完全データに基づいて事前訓練を行った。
論文 参考訳(メタデータ) (2025-08-08T10:01:16Z) - Deep Survival Analysis in Multimodal Medical Data: A Parametric and Probabilistic Approach with Competing Risks [47.19194118883552]
単一リスクシナリオと競合リスクシナリオの両方をモデル化可能な生存分析のためのマルチモーダルディープラーニングフレームワークを提案する。
生存予測のための新しいディープラーニングアーキテクチャであるSAMVAE(Survival Analysis Multimodal Variational Autoencoder)を提案する。
論文 参考訳(メタデータ) (2025-07-10T14:29:48Z) - MurreNet: Modeling Holistic Multimodal Interactions Between Histopathology and Genomic Profiles for Survival Prediction [5.895727565919295]
本稿では,MurreNet(マルチモーダル表現デカップリングネットワーク)を提案する。
MurreNetはペア化された入力データをモダリティ固有表現とモダリティ共有表現に分解し、モダリティ間の冗長性を減少させる。
6つのTCGA癌コホートで行った実験は、MurreNetが生存予測において最先端(SOTA)のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-07-07T11:26:29Z) - Disentangled and Interpretable Multimodal Attention Fusion for Cancer Survival Prediction [0.0]
癌生存予測を改善するために,Distangled and Interpretable Multimodal Attention Fusion (DIMAF)を提案する。
DIMAFは、注意に基づく融合機構の中で、モダリティ内およびモダリティ間相互作用を分離し、異なるモダリティ固有およびモダリティ共有表現を学習する。
4つの公立がん生存データセットでDIMAFを評価し,約1.85%の成績,23.7%の解離率の相対的な改善を達成した。
論文 参考訳(メタデータ) (2025-03-20T12:02:10Z) - MIRROR: Multi-Modal Pathological Self-Supervised Representation Learning via Modality Alignment and Retention [57.044719143401664]
病理組織学と転写学は、腫瘍学の基本的なモダリティであり、疾患の形態学的および分子的側面を包含している。
モーダルアライメントと保持を両立させる新しいマルチモーダル表現学習法であるMIRRORを提案する。
がんの亜型化と生存分析のためのTCGAコホートに関する広範囲な評価は,MIRRORの優れた性能を浮き彫りにしている。
論文 参考訳(メタデータ) (2025-03-01T07:02:30Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - M2EF-NNs: Multimodal Multi-instance Evidence Fusion Neural Networks for Cancer Survival Prediction [24.323961146023358]
本稿では,M2EF-NNと呼ばれるニューラルネットワークモデルを提案する。
画像中のグローバル情報をキャプチャするために、事前訓練された視覚変換器(ViT)モデルを用いる。
Dempster-Shaferエビデンス理論(DST)を癌生存予測に適用した最初の例である。
論文 参考訳(メタデータ) (2024-08-08T02:31:04Z) - FORESEE: Multimodal and Multi-view Representation Learning for Robust Prediction of Cancer Survival [3.4686401890974197]
マルチモーダル情報のマイニングにより患者生存を確実に予測する新しいエンドツーエンドフレームワークFOESEEを提案する。
クロスフュージョントランスフォーマーは、細胞レベル、組織レベル、腫瘍の不均一度レベルの特徴を効果的に利用し、予後を相関させる。
ハイブリットアテンションエンコーダ(HAE)は、コンテキストアテンションモジュールを用いて、コンテキスト関係の特徴を取得する。
また、モダリティ内の損失情報を再構成する非対称マスク型3重マスク型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2024-05-13T12:39:08Z) - SELECTOR: Heterogeneous graph network with convolutional masked autoencoder for multimodal robust prediction of cancer survival [8.403756148610269]
がん患者生存のマルチモーダル予測は、より包括的で正確なアプローチを提供する。
本稿では、畳み込みマスクエンコーダに基づく異種グラフ認識ネットワークであるSELECTORを紹介する。
本手法は,モダリティ欠落とモダリティ内情報確認の両事例において,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-14T11:23:39Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。