論文の概要: EAGLE: Efficient Alignment of Generalized Latent Embeddings for Multimodal Survival Prediction with Interpretable Attribution Analysis
- arxiv url: http://arxiv.org/abs/2506.22446v1
- Date: Thu, 12 Jun 2025 03:56:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.346573
- Title: EAGLE: Efficient Alignment of Generalized Latent Embeddings for Multimodal Survival Prediction with Interpretable Attribution Analysis
- Title(参考訳): EAGLE:解釈的属性分析による多モード生存予測のための汎用潜伏埋め込みの効率的なアライメント
- Authors: Aakash Tripathi, Asim Waqas, Matthew B. Schabath, Yasin Yilmaz, Ghulam Rasool,
- Abstract要約: 既存のマルチモーダルアプローチは、単純化された融合戦略、膨大な計算要求、および臨床導入における解釈可能性の重要な障壁の欠如に悩まされている。
本稿では,注意に基づくマルチモーダル融合と包括的帰属分析により,これらの制約に対処する新しいディープラーニングフレームワークであるEagleを紹介する。
Eagleは、高度なAI機能と実用的なヘルスケアデプロイメントのギャップを埋め、マルチモーダルサバイバル予測のためのスケーラブルなソリューションを提供する。
- 参考スコア(独自算出の注目度): 16.567468717846676
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate cancer survival prediction requires integration of diverse data modalities that reflect the complex interplay between imaging, clinical parameters, and textual reports. However, existing multimodal approaches suffer from simplistic fusion strategies, massive computational requirements, and lack of interpretability-critical barriers to clinical adoption. We present EAGLE (Efficient Alignment of Generalized Latent Embeddings), a novel deep learning framework that addresses these limitations through attention-based multimodal fusion with comprehensive attribution analysis. EAGLE introduces four key innovations: (1) dynamic cross-modal attention mechanisms that learn hierarchical relationships between modalities, (2) massive dimensionality reduction (99.96%) while maintaining predictive performance, (3) three complementary attribution methods providing patient-level interpretability, and (4) a unified pipeline enabling seamless adaptation across cancer types. We evaluated EAGLE on 911 patients across three distinct malignancies: glioblastoma (GBM, n=160), intraductal papillary mucinous neoplasms (IPMN, n=171), and non-small cell lung cancer (NSCLC, n=580). Patient-level analysis showed high-risk individuals relied more heavily on adverse imaging features, while low-risk patients demonstrated balanced modality contributions. Risk stratification identified clinically meaningful groups with 4-fold (GBM) to 5-fold (NSCLC) differences in median survival, directly informing treatment intensity decisions. By combining state-of-the-art performance with clinical interpretability, EAGLE bridges the gap between advanced AI capabilities and practical healthcare deployment, offering a scalable solution for multimodal survival prediction that enhances both prognostic accuracy and physician trust in automated predictions.
- Abstract(参考訳): 正確ながん生存予測には、画像、臨床パラメータ、およびテキストレポートの間の複雑な相互作用を反映した多様なデータモダリティの統合が必要である。
しかし、既存のマルチモーダルアプローチは、単純化された融合戦略、膨大な計算要求、および臨床導入における解釈可能性の重要な障壁の欠如に悩まされている。
EAGLE(Efficient Alignment of Generalized Latent Embeddings)は、注意に基づくマルチモーダル融合と包括的属性分析によってこれらの制約に対処する新しいディープラーニングフレームワークである。
EAGLEは,(1)モダリティ間の階層的関係を学習するダイナミック・クロスモーダル・アテンション機構,(2)予測性能を維持しながら次元の大幅な削減(99.96%),(3)患者レベルの解釈性を提供する3つの補完的帰属法,(4)がんタイプ間のシームレスな適応を可能にする統一パイプライン,の4つの重要なイノベーションを紹介している。
悪性腫瘍はGlioblastoma (GBM, n=160), 乳頭内乳頭粘液性腫瘍 (IPMN, n=171), 非小細胞肺癌 (NSCLC, n=580) の計911例で検討した。
患者レベルの分析では、高リスクの人は、より悪質な画像特徴に大きく依存し、低リスクの患者はバランスの取れたモダリティの寄与を示した。
リスク階層化では, 4-fold (GBM) から 5-fold (NSCLC) に有意な群が中央値生存率の差を認め, 治療強度の判定を直接行った。
最先端のパフォーマンスと臨床解釈可能性を組み合わせることで、EAGLEは高度なAI能力と実用的な医療デプロイメントのギャップを埋め、予後の正確さと医師の信頼を自動予測に高める、マルチモーダルサバイバル予測のためのスケーラブルなソリューションを提供する。
関連論文リスト
- Adaptable Cardiovascular Disease Risk Prediction from Heterogeneous Data using Large Language Models [70.64969663547703]
AdaCVDは、英国バイオバンクから50万人以上の参加者を対象に、大規模な言語モデルに基づいて構築された適応可能なCVDリスク予測フレームワークである。
包括的かつ可変的な患者情報を柔軟に取り込み、構造化データと非構造化テキストの両方をシームレスに統合し、最小限の追加データを使用して新規患者の集団に迅速に適応する。
論文 参考訳(メタデータ) (2025-05-30T14:42:02Z) - Disentangled and Interpretable Multimodal Attention Fusion for Cancer Survival Prediction [0.0]
癌生存予測を改善するために,Distangled and Interpretable Multimodal Attention Fusion (DIMAF)を提案する。
DIMAFは、注意に基づく融合機構の中で、モダリティ内およびモダリティ間相互作用を分離し、異なるモダリティ固有およびモダリティ共有表現を学習する。
4つの公立がん生存データセットでDIMAFを評価し,約1.85%の成績,23.7%の解離率の相対的な改善を達成した。
論文 参考訳(メタデータ) (2025-03-20T12:02:10Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Survival Prediction in Lung Cancer through Multi-Modal Representation Learning [9.403446155541346]
本稿では,CTとPETの包括的情報と関連するゲノムデータを用いた生存予測手法を提案する。
我々は,マルチモーダル画像データと遺伝的情報を統合することにより,生存率の予測モデルを構築することを目的とする。
論文 参考訳(メタデータ) (2024-09-30T10:42:20Z) - Boosting Medical Image-based Cancer Detection via Text-guided Supervision from Reports [68.39938936308023]
本研究では, 高精度ながん検出を実現するための新しいテキスト誘導学習法を提案する。
本手法は,大規模プレトレーニングVLMによる臨床知識の活用により,一般化能力の向上が期待できる。
論文 参考訳(メタデータ) (2024-05-23T07:03:38Z) - BioFusionNet: Deep Learning-Based Survival Risk Stratification in ER+ Breast Cancer Through Multifeature and Multimodal Data Fusion [16.83901927767791]
画像から得られる特徴を遺伝的・臨床的データと融合して全体像を得る深層学習フレームワークであるBioFusionNetを提案する。
本モデルでは, 平均一致率0.77, 曲線0.84の時間依存領域を達成し, 最先端の手法より優れていた。
論文 参考訳(メタデータ) (2024-02-16T14:19:33Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Cross-modality Attention-based Multimodal Fusion for Non-small Cell Lung
Cancer (NSCLC) Patient Survival Prediction [0.6476298550949928]
非小細胞肺癌(NSCLC)における患者生存予測のためのモダリティ特異的知識の統合を目的としたマルチモーダル核融合パイプラインを提案する。
組織画像データとRNA-seqデータのみを用いてc-index0.5772と0.5885を達成した単一モダリティと比較して, 提案した融合法はc-index0.6587を達成した。
論文 参考訳(メタデータ) (2023-08-18T21:42:52Z) - Pathology-and-genomics Multimodal Transformer for Survival Outcome
Prediction [43.1748594898772]
大腸癌生存予測に病理学とゲノム学的知見を統合したマルチモーダルトランスフォーマー(PathOmics)を提案する。
ギガピクセル全スライド画像における組織ミクロ環境間の内在的相互作用を捉えるための教師なし事前訓練を強調した。
我々は,TCGA大腸癌と直腸癌コホートの両方に対するアプローチを評価し,提案手法は競争力があり,最先端の研究より優れていることを示す。
論文 参考訳(メタデータ) (2023-07-22T00:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。