論文の概要: Multi-Modal Mamba Modeling for Survival Prediction (M4Survive): Adapting Joint Foundation Model Representations
- arxiv url: http://arxiv.org/abs/2503.10057v1
- Date: Thu, 13 Mar 2025 05:18:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:53:05.573544
- Title: Multi-Modal Mamba Modeling for Survival Prediction (M4Survive): Adapting Joint Foundation Model Representations
- Title(参考訳): 生存予測のためのマルチモーダルマンバモデリング(M4Survive):共同基礎モデル表現の適応
- Authors: Ho Hin Lee, Alberto Santamaria-Pang, Jameson Merkov, Matthew Lungren, Ivan Tarapov,
- Abstract要約: M4Surviveは、効率的なアダプタネットワークを用いて、共同基盤モデル表現を学習する新しいフレームワークである。
Mambaベースのアダプタを利用することで、M4Surviveは計算効率を保ちながら効率的なマルチモーダル学習を可能にする。
この研究は、精度オンコロジーと予測分析の進歩における基礎モデル駆動型マルチモーダル融合の可能性を明らかにする。
- 参考スコア(独自算出の注目度): 0.6990493129893112
- License:
- Abstract: Accurate survival prediction in oncology requires integrating diverse imaging modalities to capture the complex interplay of tumor biology. Traditional single-modality approaches often fail to leverage the complementary insights provided by radiological and pathological assessments. In this work, we introduce M4Survive (Multi-Modal Mamba Modeling for Survival Prediction), a novel framework that learns joint foundation model representations using efficient adapter networks. Our approach dynamically fuses heterogeneous embeddings from a foundation model repository (e.g., MedImageInsight, BiomedCLIP, Prov-GigaPath, UNI2-h), creating a correlated latent space optimized for survival risk estimation. By leveraging Mamba-based adapters, M4Survive enables efficient multi-modal learning while preserving computational efficiency. Experimental evaluations on benchmark datasets demonstrate that our approach outperforms both unimodal and traditional static multi-modal baselines in survival prediction accuracy. This work underscores the potential of foundation model-driven multi-modal fusion in advancing precision oncology and predictive analytics.
- Abstract(参考訳): 腫瘍学における正確な生存予測には、腫瘍生物学の複雑な相互作用を捉えるために多様な画像モダリティを統合する必要がある。
伝統的な単一モダリティのアプローチは、しばしば放射線学的および病理学的評価によって提供される補完的な洞察を活用できない。
本稿では,M4Survive(Multi-Modal Mamba Modeling for Survival Prediction)を紹介する。
提案手法は, 基礎モデルリポジトリ(MedImageInsight, BiomedCLIP, Prov-GigaPath, UNI2-h)からヘテロジニアスな埋め込みを動的に融合させ, 生存リスク推定に最適化された潜在空間を生成する。
Mambaベースのアダプタを利用することで、M4Surviveは計算効率を保ちながら効率的なマルチモーダル学習を可能にする。
ベンチマークデータセットを用いた実験により,本手法は生存予測精度において,単調および従来型の静的なマルチモーダルベースラインよりも優れていることが示された。
この研究は、精度オンコロジーと予測分析の進歩における基礎モデル駆動型マルチモーダル融合の可能性を明らかにする。
関連論文リスト
- Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - EsurvFusion: An evidential multimodal survival fusion model based on Gaussian random fuzzy numbers [13.518282190712348]
EsurvFusionは、決定レベルでマルチモーダルデータを組み合わせるように設計されている。
信頼性の割引層を通じてモダリティレベルの信頼性を推定する。
これは、不確実性と信頼性の両方でマルチモーダルサバイバル分析を研究する最初の研究である。
論文 参考訳(メタデータ) (2024-12-02T07:35:29Z) - Enhanced Survival Prediction in Head and Neck Cancer Using Convolutional Block Attention and Multimodal Data Fusion [7.252280210331731]
本稿では,頭頸部癌患者の生存率を予測するための深層学習に基づくアプローチを提案する。
提案手法は,特徴抽出をCBAM (Convolutional Block Attention Module) とマルチモーダルデータ融合層と統合する。
最終的な予測は、完全にパラメトリックな離散時間生存モデルによって達成される。
論文 参考訳(メタデータ) (2024-10-29T07:56:04Z) - Multi-modal Intermediate Feature Interaction AutoEncoder for Overall Survival Prediction of Esophageal Squamous Cell Cancer [8.183502190604687]
本稿では,ESCCの生存率を予測するための,新しいオートエンコーダに基づくディープラーニングモデルを提案する。
マルチモーダルな予後関連機能強化とモデリング能力向上のための2つの新しいモジュールが設計された。
本モデルでは, 識別能力, リスク階層化, 提案モジュールの有効性の観点から, 良好な結果が得られる。
論文 参考訳(メタデータ) (2024-08-23T09:11:05Z) - M2EF-NNs: Multimodal Multi-instance Evidence Fusion Neural Networks for Cancer Survival Prediction [24.323961146023358]
本稿では,M2EF-NNと呼ばれるニューラルネットワークモデルを提案する。
画像中のグローバル情報をキャプチャするために、事前訓練された視覚変換器(ViT)モデルを用いる。
Dempster-Shaferエビデンス理論(DST)を癌生存予測に適用した最初の例である。
論文 参考訳(メタデータ) (2024-08-08T02:31:04Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - TTMFN: Two-stream Transformer-based Multimodal Fusion Network for
Survival Prediction [7.646155781863875]
生存予測のための2ストリームトランスフォーマーベースマルチモーダルフュージョンネットワーク(TTMFN)という新しいフレームワークを提案する。
TTMFNでは、異なるモード間の複雑な関係をフル活用するために、2ストリームマルチモーダルコアテンショントランスモジュールを提案する。
The Cancer Genome Atlasの4つのデータセットによる実験結果は、TMFNが最高のパフォーマンスまたは競争的な結果を得ることができることを示した。
論文 参考訳(メタデータ) (2023-11-13T02:31:20Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。