論文の概要: Cross-modality Attention-based Multimodal Fusion for Non-small Cell Lung
Cancer (NSCLC) Patient Survival Prediction
- arxiv url: http://arxiv.org/abs/2308.09831v1
- Date: Fri, 18 Aug 2023 21:42:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 19:52:13.700616
- Title: Cross-modality Attention-based Multimodal Fusion for Non-small Cell Lung
Cancer (NSCLC) Patient Survival Prediction
- Title(参考訳): 非小細胞肺癌(NSCLC)患者の生存予測におけるクロスモーダルアテンションに基づくマルチモーダルフュージョン
- Authors: Ruining Deng, Nazim Shaikh, Gareth Shannon, Yao Nie
- Abstract要約: 非小細胞肺癌(NSCLC)における患者生存予測のためのモダリティ特異的知識の統合を目的としたマルチモーダル核融合パイプラインを提案する。
組織画像データとRNA-seqデータのみを用いてc-index0.5772と0.5885を達成した単一モダリティと比較して, 提案した融合法はc-index0.6587を達成した。
- 参考スコア(独自算出の注目度): 0.6476298550949928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cancer prognosis and survival outcome predictions are crucial for therapeutic
response estimation and for stratifying patients into various treatment groups.
Medical domains concerned with cancer prognosis are abundant with multiple
modalities, including pathological image data and non-image data such as
genomic information. To date, multimodal learning has shown potential to
enhance clinical prediction model performance by extracting and aggregating
information from different modalities of the same subject. This approach could
outperform single modality learning, thus improving computer-aided diagnosis
and prognosis in numerous medical applications. In this work, we propose a
cross-modality attention-based multimodal fusion pipeline designed to integrate
modality-specific knowledge for patient survival prediction in non-small cell
lung cancer (NSCLC). Instead of merely concatenating or summing up the features
from different modalities, our method gauges the importance of each modality
for feature fusion with cross-modality relationship when infusing the
multimodal features. Compared with single modality, which achieved c-index of
0.5772 and 0.5885 using solely tissue image data or RNA-seq data, respectively,
the proposed fusion approach achieved c-index 0.6587 in our experiment,
showcasing the capability of assimilating modality-specific knowledge from
varied modalities.
- Abstract(参考訳): がん予後と生存予後予測は治療反応推定および様々な治療群への階層化に不可欠である。
癌予後に関連する医療領域は、病理画像データやゲノム情報などの非画像データなど、多種多様である。
これまでマルチモーダル学習は、同一対象の異なるモーダルから情報を抽出し集約することにより、臨床予測モデルの性能を高める可能性を示してきた。
このアプローチは単一のモダリティ学習を上回り、多くの医学的応用においてコンピュータ支援診断と予後を改善する。
本研究は,非小細胞肺癌(NSCLC)における患者生存予測のためのモダリティ特異的知識の統合を目的とした,モダリティ横断型マルチモーダル融合パイプラインを提案する。
異なるモダリティから特徴を結合またはまとめる代わりに、マルチモダリティ特徴を取り入れる際に、交叉モダリティ関係を持つ特徴融合における各モダリティの重要性を計測する。
組織画像データとRNA-seqデータのみを用いてc-indexを0.5772と0.5885で達成した単一モダリティと比較して, 本実験ではc-index 0.6587が得られた。
関連論文リスト
- Survival Prediction in Lung Cancer through Multi-Modal Representation Learning [9.403446155541346]
本稿では,CTとPETの包括的情報と関連するゲノムデータを用いた生存予測手法を提案する。
我々は,マルチモーダル画像データと遺伝的情報を統合することにより,生存率の予測モデルを構築することを目的とする。
論文 参考訳(メタデータ) (2024-09-30T10:42:20Z) - Confidence-aware multi-modality learning for eye disease screening [58.861421804458395]
眼疾患スクリーニングのための新しい多モード顕在核融合パイプラインを提案する。
モダリティごとに信頼度を測り、マルチモダリティ情報をエレガントに統合する。
パブリックデータセットと内部データセットの両方の実験結果は、我々のモデルが堅牢性に優れていることを示している。
論文 参考訳(メタデータ) (2024-05-28T13:27:30Z) - FORESEE: Multimodal and Multi-view Representation Learning for Robust Prediction of Cancer Survival [3.4686401890974197]
マルチモーダル情報のマイニングにより患者生存を確実に予測する新しいエンドツーエンドフレームワークFOESEEを提案する。
クロスフュージョントランスフォーマーは、細胞レベル、組織レベル、腫瘍の不均一度レベルの特徴を効果的に利用し、予後を相関させる。
ハイブリットアテンションエンコーダ(HAE)は、コンテキストアテンションモジュールを用いて、コンテキスト関係の特徴を取得する。
また、モダリティ内の損失情報を再構成する非対称マスク型3重マスク型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2024-05-13T12:39:08Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Incomplete Multimodal Learning for Complex Brain Disorders Prediction [65.95783479249745]
本稿では,変換器と生成対向ネットワークを用いた不完全なマルチモーダルデータ統合手法を提案する。
アルツハイマー病神経画像イニシアチブコホートを用いたマルチモーダルイメージングによる認知変性と疾患予後の予測に本手法を適用した。
論文 参考訳(メタデータ) (2023-05-25T16:29:16Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - RadioPathomics: Multimodal Learning in Non-Small Cell Lung Cancer for
Adaptive Radiotherapy [1.8161758803237067]
非小細胞肺癌に対する放射線治療成績を予測するため, マルチモーダルレイトフュージョン法を開発した。
実験により、AUCが90.9%ドルと同等のマルチモーダルパラダイムが、各ユニモーダルアプローチより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-26T16:32:52Z) - Deep Orthogonal Fusion: Multimodal Prognostic Biomarker Discovery
Integrating Radiology, Pathology, Genomic, and Clinical Data [0.32622301272834525]
グリオーマ患者の生存率 (OS) を, 深層直交核融合モデルを用いて予測した。
このモデルは、MRI検査、生検に基づくモダリティ、臨床変数から得た情報を総合的なマルチモーダルリスクスコアに組み合わせることを学ぶ。
グリオーマ患者を臨床的サブセット内でOSにより明らかに層分けし、予後不良な臨床グレーディングと分子サブタイプにさらに粒度を付加する。
論文 参考訳(メタデータ) (2021-07-01T17:59:01Z) - Multimodal fusion using sparse CCA for breast cancer survival prediction [18.586974977393258]
本稿では,モダリティ内およびモダリティ間相関を考慮した正準相関解析による特徴埋め込みモジュールを提案する。
シミュレーションおよび実データを用いた実験は,提案モジュールがよく相関した多次元埋め込みを学習できることを示す。
論文 参考訳(メタデータ) (2021-03-09T14:23:50Z) - Robust Multimodal Brain Tumor Segmentation via Feature Disentanglement
and Gated Fusion [71.87627318863612]
画像モダリティの欠如に頑健な新しいマルチモーダルセグメンテーションフレームワークを提案する。
我々のネットワークは、入力モードをモダリティ固有の外観コードに分解するために、特徴不整合を用いる。
我々は,BRATSチャレンジデータセットを用いて,重要なマルチモーダル脳腫瘍セグメンテーション課題に対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-02-22T14:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。