論文の概要: Automated and Interpretable Survival Analysis from Multimodal Data
- arxiv url: http://arxiv.org/abs/2509.21600v1
- Date: Thu, 25 Sep 2025 21:13:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.022842
- Title: Automated and Interpretable Survival Analysis from Multimodal Data
- Title(参考訳): マルチモーダルデータによる自動的・解釈可能な生存分析
- Authors: Mafalda Malafaia, Peter A. N. Bosman, Coen Rasch, Tanja Alderliesten,
- Abstract要約: 本稿では,臨床変数とCT画像の統合による生存分析の自動化を目的とした,解釈可能なマルチモーダルAIフレームワークを提案する。
我々のMultiFIXベースのフレームワークは、Grad-CAMを介して解釈される生存関連機能を深層学習で推測する。
頭頸部癌に対するオープンソースのRADCUREデータセットを用いて、MultiFIXは0.838(予測)と0.826(成層化)のCインデックスを達成する
- 参考スコア(独自算出の注目度): 1.1199585259018459
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate and interpretable survival analysis remains a core challenge in oncology. With growing multimodal data and the clinical need for transparent models to support validation and trust, this challenge increases in complexity. We propose an interpretable multimodal AI framework to automate survival analysis by integrating clinical variables and computed tomography imaging. Our MultiFIX-based framework uses deep learning to infer survival-relevant features that are further explained: imaging features are interpreted via Grad-CAM, while clinical variables are modeled as symbolic expressions through genetic programming. Risk estimation employs a transparent Cox regression, enabling stratification into groups with distinct survival outcomes. Using the open-source RADCURE dataset for head and neck cancer, MultiFIX achieves a C-index of 0.838 (prediction) and 0.826 (stratification), outperforming the clinical and academic baseline approaches and aligning with known prognostic markers. These results highlight the promise of interpretable multimodal AI for precision oncology with MultiFIX.
- Abstract(参考訳): 正確な、解釈可能な生存分析は、腫瘍学における中核的な課題である。
マルチモーダルデータの増加と、検証と信頼をサポートするための透過的なモデルの必要性により、この課題は複雑さを増す。
本稿では,臨床変数とCT画像の統合による生存分析の自動化を目的とした,解釈可能なマルチモーダルAIフレームワークを提案する。
我々のMultiFIXベースのフレームワークは、ディープラーニングを用いて生存関連の特徴を推論する。画像特徴はGrad-CAMを介して解釈され、臨床変数は遺伝的プログラミングを通じてシンボル表現としてモデル化される。
リスク推定は透明なコックス回帰を採用し、異なる生存結果を持つグループへの成層化を可能にする。
オープンソースのRADCUREデータセットを頭頸部癌に使用し、MultiFIXは0.838(予測)と0.826(成層化)のCインデックスを達成し、臨床および学術的なベースラインアプローチを上回り、既知の予後マーカーと整合する。
これらの結果は、MultiFIXを用いた精度オンコロジーのための解釈可能なマルチモーダルAIの約束を強調している。
関連論文リスト
- Cross-Linguistic Persona-Driven Data Synthesis for Robust Multimodal Cognitive Decline Detection [20.599682298329213]
我々は、制御可能なゼロショットマルチモーダルデータ合成とChain-of-Thought deductionファインチューニングを統合する新しいフレームワークであるSynCogを紹介する。
この生成パラダイムは、様々な言語にまたがる臨床コーパスの迅速でゼロショット展開を可能にする。
ADReSSとADReSSoベンチマークの実験は、限られた臨床データを合成表現型で増強することで、競争力のある診断性能が得られることを示した。
論文 参考訳(メタデータ) (2026-02-08T14:10:05Z) - A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - Deep Survival Analysis in Multimodal Medical Data: A Parametric and Probabilistic Approach with Competing Risks [47.19194118883552]
単一リスクシナリオと競合リスクシナリオの両方をモデル化可能な生存分析のためのマルチモーダルディープラーニングフレームワークを提案する。
生存予測のための新しいディープラーニングアーキテクチャであるSAMVAE(Survival Analysis Multimodal Variational Autoencoder)を提案する。
論文 参考訳(メタデータ) (2025-07-10T14:29:48Z) - RadFabric: Agentic AI System with Reasoning Capability for Radiology [61.25593938175618]
RadFabricは、総合的なCXR解釈のための視覚的およびテキスト分析を統合するマルチエージェント、マルチモーダル推論フレームワークである。
システムは、病理診断に特殊なCXRエージェント、正確な解剖学的構造に視覚所見をマッピングする解剖学的解釈エージェント、および視覚的、解剖学的、臨床データを透明かつ証拠に基づく診断に合成する大規模なマルチモーダル推論モデルを利用した推論エージェントを使用する。
論文 参考訳(メタデータ) (2025-06-17T03:10:33Z) - Towards Accurate and Interpretable Neuroblastoma Diagnosis via Contrastive Multi-scale Pathological Image Analysis [16.268045905735818]
病理画像分類に適したコントラスト学習に基づくマルチスケール機能融合モデルであるCMSwinKANを提案する。
マルチスケールの特徴を融合させ、対照的な学習戦略を活用することで、CMSwinKANは臨床医の包括的なアプローチを模倣する。
その結果、CMSwinKANは、既存の最先端の病理モデルよりも、大規模なデータセットで事前訓練されたモデルよりもパフォーマンスがよいことが示された。
論文 参考訳(メタデータ) (2025-04-18T15:39:46Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Towards Interpretable Radiology Report Generation via Concept Bottlenecks using a Multi-Agentic RAG [1.9374282535132377]
本研究では, レポート生成のための概念ボトルネックモデル(CBM)とマルチエージェント検索・拡張生成システム(RAG)を用いて, 胸部X線分類(CXR)の解釈可能性を向上させる。
視覚特徴と臨床概念の関係をモデル化することにより,多エージェントRAGシステムで放射線診断レポートを生成するための解釈可能な概念ベクトルを作成する。
論文 参考訳(メタデータ) (2024-12-20T17:33:50Z) - Personalized 2D Binary Patient Codes of Tissue Images and Immunogenomic Data Through Multimodal Self-Supervised Fusion [0.9374652839580183]
MarbliXは、病理組織像と免疫ゲノムシークエンシングデータを統合し、それらを簡潔なバイナリー患者コードにカプセル化する革新的なフレームワークである。
実験の結果は、医療専門家に深い洞察を与えるMarbliXの可能性を示している。
論文 参考訳(メタデータ) (2024-09-19T22:49:27Z) - MM-SurvNet: Deep Learning-Based Survival Risk Stratification in Breast
Cancer Through Multimodal Data Fusion [18.395418853966266]
乳がん生存リスク階層化のための新しい深層学習手法を提案する。
画像特徴抽出には視覚変換器、特にMaxViTモデルを使用し、患者レベルでの複雑な画像関係のキャプチャには自己注意を用いる。
二重クロスアテンション機構はこれらの特徴を遺伝データと融合させ、臨床データを最終層に組み込んで予測精度を高める。
論文 参考訳(メタデータ) (2024-02-19T02:31:36Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。