論文の概要: ConSurv: Multimodal Continual Learning for Survival Analysis
- arxiv url: http://arxiv.org/abs/2511.09853v1
- Date: Fri, 14 Nov 2025 01:13:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.528743
- Title: ConSurv: Multimodal Continual Learning for Survival Analysis
- Title(参考訳): ConSurv: 生存分析のためのマルチモーダル連続学習
- Authors: Dianzhi Yu, Conghao Xiong, Yankai Chen, Wenqian Cui, Xinni Zhang, Yifei Zhang, Hao Chen, Joseph J. Y. Sung, Irwin King,
- Abstract要約: ConSurvは、生存分析のための最初のマルチモーダル連続学習法である。
主なコンポーネントは、Multi-staged Mixture of Experts (MS-MoE)とFeature Constrained Replay (FCR)である。
大規模な実験では、ConSurvは複数のメトリクスで競合するメソッドよりも優れています。
- 参考スコア(独自算出の注目度): 45.734146104637745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Survival prediction of cancers is crucial for clinical practice, as it informs mortality risks and influences treatment plans. However, a static model trained on a single dataset fails to adapt to the dynamically evolving clinical environment and continuous data streams, limiting its practical utility. While continual learning (CL) offers a solution to learn dynamically from new datasets, existing CL methods primarily focus on unimodal inputs and suffer from severe catastrophic forgetting in survival prediction. In real-world scenarios, multimodal inputs often provide comprehensive and complementary information, such as whole slide images and genomics; and neglecting inter-modal correlations negatively impacts the performance. To address the two challenges of catastrophic forgetting and complex inter-modal interactions between gigapixel whole slide images and genomics, we propose ConSurv, the first multimodal continual learning (MMCL) method for survival analysis. ConSurv incorporates two key components: Multi-staged Mixture of Experts (MS-MoE) and Feature Constrained Replay (FCR). MS-MoE captures both task-shared and task-specific knowledge at different learning stages of the network, including two modality encoders and the modality fusion component, learning inter-modal relationships. FCR further enhances learned knowledge and mitigates forgetting by restricting feature deviation of previous data at different levels, including encoder-level features of two modalities and the fusion-level representations. Additionally, we introduce a new benchmark integrating four datasets, Multimodal Survival Analysis Incremental Learning (MSAIL), for comprehensive evaluation in the CL setting. Extensive experiments demonstrate that ConSurv outperforms competing methods across multiple metrics.
- Abstract(参考訳): がんの生存予測は、死亡リスクを知らせ、治療計画に影響を与えるため、臨床実践に不可欠である。
しかし、単一のデータセットでトレーニングされた静的モデルは、動的に進化する臨床環境と継続的なデータストリームに適応できないため、実用性は制限される。
継続学習(CL)は、新しいデータセットから動的に学習するソリューションを提供するが、既存のCL手法は、主に単調な入力に焦点を当て、生存予測において深刻な破滅的な忘れを被る。
実世界のシナリオでは、マルチモーダル入力は、スライド画像全体やゲノミクスのような包括的で補完的な情報を提供することが多く、モーダル間の相関を無視することはパフォーマンスに悪影響を及ぼす。
本研究では,多モード連続学習(MMCL)手法であるConSurvを提案する。
ConSurvには、Multi-staged Mixture of Experts (MS-MoE)とFeature Constrained Replay (FCR)の2つの重要なコンポーネントが含まれている。
MS-MoEは、2つのモダリティエンコーダとモダリティ融合コンポーネントを含む、ネットワークの異なる学習段階におけるタスク共有とタスク固有の知識をキャプチャし、モーダル間の関係を学習する。
FCRは学習知識をさらに強化し、2つのモードのエンコーダレベルの特徴や融合レベルの表現を含む、前のデータの特徴偏差を異なるレベルで制限することで、忘れを緩和する。
さらに、CL設定における総合的な評価のために、4つのデータセットを統合した新しいベンチマークであるMultimodal Survival Analysis Incremental Learning (MSAIL)を導入する。
大規模な実験では、ConSurvは複数のメトリクスで競合するメソッドよりも優れています。
関連論文リスト
- Continual Learning for VLMs: A Survey and Taxonomy Beyond Forgetting [70.83781268763215]
視覚言語モデル(VLM)は、大規模事前学習を活用することで、多様なマルチモーダルタスクにおいて優れたパフォーマンスを実現している。
VLMは、クロスモーダル機能ドリフト、共有アーキテクチャによるパラメータ干渉、ゼロショット機能侵食など、ユニークな課題に直面している。
本調査は、生涯の視覚言語システムを開発する研究者にとって、包括的かつ診断的な基準となることを目的としている。
論文 参考訳(メタデータ) (2025-08-06T09:03:10Z) - Deep Survival Analysis in Multimodal Medical Data: A Parametric and Probabilistic Approach with Competing Risks [47.19194118883552]
単一リスクシナリオと競合リスクシナリオの両方をモデル化可能な生存分析のためのマルチモーダルディープラーニングフレームワークを提案する。
生存予測のための新しいディープラーニングアーキテクチャであるSAMVAE(Survival Analysis Multimodal Variational Autoencoder)を提案する。
論文 参考訳(メタデータ) (2025-07-10T14:29:48Z) - Continual Multimodal Contrastive Learning [99.53621521696051]
MCL(Multimodal Contrastive Learning)は、異なるモダリティを整列し、関節空間におけるマルチモーダル表現を生成する。
マルチモーダルデータは単一のプロセスで収集されることはめったになく、スクラッチからのトレーニングは計算コストがかかる。
本稿では, 安定性と塑性の2つの原理によりCMCLを定式化する。
理論的には、二辺から部分空間への勾配の更新を計画する、新しい最適化に基づく手法を導出する。
論文 参考訳(メタデータ) (2025-03-19T07:57:08Z) - Adaptive Prototype Learning for Multimodal Cancer Survival Analysis [8.179859593451285]
本稿では, 適応型プロトタイプ学習(Adaptive Prototype Learning, APL)を提案する。
APLはデータ駆動方式で代表プロトタイプを適応的に学習し、重要な情報を保持しながら冗長性を低下させる。
本手法では,高次元表現と生存予測の橋渡しとして,学習可能な2つのクエリベクトルを用いる。
論文 参考訳(メタデータ) (2025-03-06T17:32:15Z) - Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Continual Self-supervised Learning: Towards Universal Multi-modal
Medical Data Representation Learning [36.33882718631217]
自己教師付き学習は、医用画像解析のための効率的な事前学習方法である。
マルチモーダル医療データに対する継続的自己教師型学習手法であるMedCoSSを提案する。
我々は、大規模マルチモーダルなラベルなしデータセット上で、継続的自己教師付き事前学習を行う。
論文 参考訳(メタデータ) (2023-11-29T12:47:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。