論文の概要: Enhanced Survival Prediction in Head and Neck Cancer Using Convolutional Block Attention and Multimodal Data Fusion
- arxiv url: http://arxiv.org/abs/2410.21831v1
- Date: Tue, 29 Oct 2024 07:56:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:29.930273
- Title: Enhanced Survival Prediction in Head and Neck Cancer Using Convolutional Block Attention and Multimodal Data Fusion
- Title(参考訳): Convolutional Block Attention と Multimodal Data Fusion を用いた頭頸部癌の生存予測
- Authors: Aiman Farooq, Utkarsh Sharma, Deepak Mishra,
- Abstract要約: 本稿では,頭頸部癌患者の生存率を予測するための深層学習に基づくアプローチを提案する。
提案手法は,特徴抽出をCBAM (Convolutional Block Attention Module) とマルチモーダルデータ融合層と統合する。
最終的な予測は、完全にパラメトリックな離散時間生存モデルによって達成される。
- 参考スコア(独自算出の注目度): 7.252280210331731
- License:
- Abstract: Accurate survival prediction in head and neck cancer (HNC) is essential for guiding clinical decision-making and optimizing treatment strategies. Traditional models, such as Cox proportional hazards, have been widely used but are limited in their ability to handle complex multi-modal data. This paper proposes a deep learning-based approach leveraging CT and PET imaging modalities to predict survival outcomes in HNC patients. Our method integrates feature extraction with a Convolutional Block Attention Module (CBAM) and a multi-modal data fusion layer that combines imaging data to generate a compact feature representation. The final prediction is achieved through a fully parametric discrete-time survival model, allowing for flexible hazard functions that overcome the limitations of traditional survival models. We evaluated our approach using the HECKTOR and HEAD-NECK-RADIOMICS- HN1 datasets, demonstrating its superior performance compared to conconventional statistical and machine learning models. The results indicate that our deep learning model significantly improves survival prediction accuracy, offering a robust tool for personalized treatment planning in HNC
- Abstract(参考訳): 頭頸部癌(HNC)の正確な生存予測は,臨床診断の指導と治療戦略の最適化に不可欠である。
Cox比例ハザードのような伝統的なモデルは広く用いられてきたが、複雑なマルチモーダルデータを扱う能力は限られている。
本稿では,HNC患者の生存率を予測するため,CTおよびPET画像モダリティを利用した深層学習に基づくアプローチを提案する。
本手法は,画像データを組み合わせてコンパクトな特徴表現を生成する,畳み込みブロック注意モジュール(CBAM)とマルチモーダルデータ融合層との特徴抽出を統合した。
最終的な予測は、完全にパラメトリックな離散時間生存モデルによって達成され、従来の生存モデルの限界を克服するフレキシブルハザード関数を可能にする。
HECKTORとHEAD-NECK-RADIOMICS-HN1データセットを用いて,従来の統計モデルや機械学習モデルと比較して優れた性能を示した。
その結果,ディープラーニングモデルにより生存予測精度が大幅に向上し,HNCにおけるパーソナライズされた治療計画のための堅牢なツールが提供されることがわかった。
関連論文リスト
- Survival Prediction in Lung Cancer through Multi-Modal Representation Learning [9.403446155541346]
本稿では,CTとPETの包括的情報と関連するゲノムデータを用いた生存予測手法を提案する。
我々は,マルチモーダル画像データと遺伝的情報を統合することにより,生存率の予測モデルを構築することを目的とする。
論文 参考訳(メタデータ) (2024-09-30T10:42:20Z) - Advancing Head and Neck Cancer Survival Prediction via Multi-Label Learning and Deep Model Interpretation [7.698783025721071]
我々は,複数のHNC生存率を同時に予測するための,解釈可能なマルチラベル・マルチモーダル・ディープ・サバイバル予測フレームワーク IMLSP を提案する。
また、深層生存モデル視覚説明のために開発された、グラディエント重み付き時間イベント活性化マッピング手法であるGrad-TEAMを提案する。
論文 参考訳(メタデータ) (2024-05-09T01:30:04Z) - SELECTOR: Heterogeneous graph network with convolutional masked autoencoder for multimodal robust prediction of cancer survival [8.403756148610269]
がん患者生存のマルチモーダル予測は、より包括的で正確なアプローチを提供する。
本稿では、畳み込みマスクエンコーダに基づく異種グラフ認識ネットワークであるSELECTORを紹介する。
本手法は,モダリティ欠落とモダリティ内情報確認の両事例において,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-14T11:23:39Z) - MM-SurvNet: Deep Learning-Based Survival Risk Stratification in Breast
Cancer Through Multimodal Data Fusion [18.395418853966266]
乳がん生存リスク階層化のための新しい深層学習手法を提案する。
画像特徴抽出には視覚変換器、特にMaxViTモデルを使用し、患者レベルでの複雑な画像関係のキャプチャには自己注意を用いる。
二重クロスアテンション機構はこれらの特徴を遺伝データと融合させ、臨床データを最終層に組み込んで予測精度を高める。
論文 参考訳(メタデータ) (2024-02-19T02:31:36Z) - Merging-Diverging Hybrid Transformer Networks for Survival Prediction in
Head and Neck Cancer [10.994223928445589]
マルチモーダル画像からの生存予測のための統合分散学習フレームワークを提案する。
このフレームワークは、マルチモーダル情報を融合するマージエンコーダと、領域固有情報を抽出する発散デコーダを備える。
頭頸部癌(H&N)におけるPET-CT画像の生存予測について検討した。
論文 参考訳(メタデータ) (2023-07-07T07:16:03Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - SurvLatent ODE : A Neural ODE based time-to-event model with competing
risks for longitudinal data improves cancer-associated Deep Vein Thrombosis
(DVT) prediction [68.8204255655161]
本稿では,不規則なサンプルデータの下で潜在表現をパラメータ化する生成時間対イベントモデルSurvLatent ODEを提案する。
そこで,本モデルでは,事象特異的ハザード関数の形状を指定せずに,複数の競合イベントの生存時間を柔軟に推定する。
SurvLatent ODEは、DVTリスクグループを成層化するために、現在の臨床標準であるKhorana Riskスコアより優れている。
論文 参考訳(メタデータ) (2022-04-20T17:28:08Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。