論文の概要: Cross-Modality Masked Learning for Survival Prediction in ICI Treated NSCLC Patients
- arxiv url: http://arxiv.org/abs/2507.06994v1
- Date: Wed, 09 Jul 2025 16:19:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.668755
- Title: Cross-Modality Masked Learning for Survival Prediction in ICI Treated NSCLC Patients
- Title(参考訳): NSCLC治療患者の生存予測のためのクロスモーダル・マズード学習
- Authors: Qilong Xing, Zikai Song, Bingxin Gong, Lian Yang, Junqing Yu, Wei Yang,
- Abstract要約: 免疫療法を施行した非小細胞肺癌(NSCLC)患者の大規模データセットについて報告する。
本稿では,生存予測の精度向上を目的としたマルチモーダル機能融合のための新しいフレームワークを提案する。
提案手法は,NSCLCサバイバル予測のためのマルチモーダル統合において,既存手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 8.798544846026676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate prognosis of non-small cell lung cancer (NSCLC) patients undergoing immunotherapy is essential for personalized treatment planning, enabling informed patient decisions, and improving both treatment outcomes and quality of life. However, the lack of large, relevant datasets and effective multi-modal feature fusion strategies pose significant challenges in this domain. To address these challenges, we present a large-scale dataset and introduce a novel framework for multi-modal feature fusion aimed at enhancing the accuracy of survival prediction. The dataset comprises 3D CT images and corresponding clinical records from NSCLC patients treated with immune checkpoint inhibitors (ICI), along with progression-free survival (PFS) and overall survival (OS) data. We further propose a cross-modality masked learning approach for medical feature fusion, consisting of two distinct branches, each tailored to its respective modality: a Slice-Depth Transformer for extracting 3D features from CT images and a graph-based Transformer for learning node features and relationships among clinical variables in tabular data. The fusion process is guided by a masked modality learning strategy, wherein the model utilizes the intact modality to reconstruct missing components. This mechanism improves the integration of modality-specific features, fostering more effective inter-modality relationships and feature interactions. Our approach demonstrates superior performance in multi-modal integration for NSCLC survival prediction, surpassing existing methods and setting a new benchmark for prognostic models in this context.
- Abstract(参考訳): 免疫療法を施行した非小細胞肺癌(NSCLC)患者の正確な予後は、パーソナライズされた治療計画に不可欠であり、患者に通知された決定を可能にし、治療結果と生活の質を改善している。
しかし、大規模で関連するデータセットと効果的なマルチモーダル機能融合戦略の欠如は、この領域で大きな課題を招いている。
これらの課題に対処するため、大規模データセットを提案し、生存予測の精度を高めることを目的としたマルチモーダル特徴融合のための新しいフレームワークを提案する。
このデータセットは、免疫チェックポイントインヒビター(ICI)で治療されたNSCLC患者の3次元CT画像と対応する臨床記録と、進行無生存(PFS)および総合生存(OS)データを含む。
さらに、CT画像から3次元特徴を抽出するSlice-Depth Transformerと、表データにおける臨床変数間のノード特徴と関係を学習するグラフベースのTransformerという、2つの異なる枝からなる医用特徴融合のためのクロスモーダルマスク学習手法を提案する。
融合プロセスはマスク付きモダリティ学習戦略によって導かれ、モデルでは無作為なモダリティを用いて欠落したコンポーネントを再構築する。
このメカニズムは、モダリティ固有の特徴の統合を改善し、より効果的なモダリティ間の関係と特徴間の相互作用を促進する。
提案手法は,NSCLCサバイバル予測のためのマルチモーダル統合における優れた性能を示し,既存の手法を超越し,この文脈における予測モデルに対する新しいベンチマークを設定する。
関連論文リスト
- Continually Evolved Multimodal Foundation Models for Cancer Prognosis [50.43145292874533]
がん予後は、患者の予後と生存率を予測する重要なタスクである。
これまでの研究では、臨床ノート、医療画像、ゲノムデータなどの多様なデータモダリティを統合し、補完的な情報を活用している。
既存のアプローチには2つの大きな制限がある。まず、各病院の患者記録など、各種のトレーニングに新しく到着したデータを組み込むことに苦慮する。
第二に、ほとんどのマルチモーダル統合手法は単純化された結合やタスク固有のパイプラインに依存しており、モダリティ間の複雑な相互依存を捉えることができない。
論文 参考訳(メタデータ) (2025-01-30T06:49:57Z) - Enhanced MRI Representation via Cross-series Masking [48.09478307927716]
自己教師型でMRI表現を効果的に学習するためのクロスシリーズ・マスキング(CSM)戦略
メソッドは、パブリックデータセットと社内データセットの両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-10T10:32:09Z) - Survival Prediction in Lung Cancer through Multi-Modal Representation Learning [9.403446155541346]
本稿では,CTとPETの包括的情報と関連するゲノムデータを用いた生存予測手法を提案する。
我々は,マルチモーダル画像データと遺伝的情報を統合することにより,生存率の予測モデルを構築することを目的とする。
論文 参考訳(メタデータ) (2024-09-30T10:42:20Z) - FORESEE: Multimodal and Multi-view Representation Learning for Robust Prediction of Cancer Survival [3.4686401890974197]
マルチモーダル情報のマイニングにより患者生存を確実に予測する新しいエンドツーエンドフレームワークFOESEEを提案する。
クロスフュージョントランスフォーマーは、細胞レベル、組織レベル、腫瘍の不均一度レベルの特徴を効果的に利用し、予後を相関させる。
ハイブリットアテンションエンコーダ(HAE)は、コンテキストアテンションモジュールを用いて、コンテキスト関係の特徴を取得する。
また、モダリティ内の損失情報を再構成する非対称マスク型3重マスク型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2024-05-13T12:39:08Z) - SELECTOR: Heterogeneous graph network with convolutional masked autoencoder for multimodal robust prediction of cancer survival [8.403756148610269]
がん患者生存のマルチモーダル予測は、より包括的で正確なアプローチを提供する。
本稿では、畳み込みマスクエンコーダに基づく異種グラフ認識ネットワークであるSELECTORを紹介する。
本手法は,モダリティ欠落とモダリティ内情報確認の両事例において,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-14T11:23:39Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Cross-modality Attention-based Multimodal Fusion for Non-small Cell Lung
Cancer (NSCLC) Patient Survival Prediction [0.6476298550949928]
非小細胞肺癌(NSCLC)における患者生存予測のためのモダリティ特異的知識の統合を目的としたマルチモーダル核融合パイプラインを提案する。
組織画像データとRNA-seqデータのみを用いてc-index0.5772と0.5885を達成した単一モダリティと比較して, 提案した融合法はc-index0.6587を達成した。
論文 参考訳(メタデータ) (2023-08-18T21:42:52Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。