論文の概要: Prediction of Distant Metastasis for Head and Neck Cancer Patients Using Multi-Modal Tumor and Peritumoral Feature Fusion Network
- arxiv url: http://arxiv.org/abs/2508.20469v1
- Date: Thu, 28 Aug 2025 06:39:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.086646
- Title: Prediction of Distant Metastasis for Head and Neck Cancer Patients Using Multi-Modal Tumor and Peritumoral Feature Fusion Network
- Title(参考訳): 頭頸部癌における多形腫瘍と経時的特徴核融合ネットワークを用いた遠隔転移の予測
- Authors: Zizhao Tang, Changhao Liu, Nuo Tong, Shuiping Gou, Mei Shi,
- Abstract要約: 頭頸部扁平上皮癌(HN SCC)における転移の意義
本研究では,CT画像,放射線画像,臨床データを統合し,HN SCC患者の転移リスクを予測するためのディープラーニングベースのフレームワークを開発した。
- 参考スコア(独自算出の注目度): 6.753955554949766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Metastasis remains the major challenge in the clinical management of head and neck squamous cell carcinoma (HNSCC). Reliable pre-treatment prediction of metastatic risk is crucial for optimizing treatment strategies and prognosis. This study develops a deep learning-based multimodal framework to predict metastasis risk in HNSCC patients by integrating computed tomography (CT) images, radiomics, and clinical data. 1497 HNSCC patients were included. Tumor and organ masks were derived from pretreatment CT images. A 3D Swin Transformer extracted deep features from tumor regions. Meanwhile, 1562 radiomics features were obtained using PyRadiomics, followed by correlation filtering and random forest selection, leaving 36 features. Clinical variables including age, sex, smoking, and alcohol status were encoded and fused with imaging-derived features. Multimodal features were fed into a fully connected network to predict metastasis risk. Performance was evaluated using five-fold cross-validation with area under the curve (AUC), accuracy (ACC), sensitivity (SEN), and specificity (SPE). The proposed fusion model outperformed single-modality models. The 3D deep learning module alone achieved an AUC of 0.715, and when combined with radiomics and clinical features, predictive performance improved (AUC = 0.803, ACC = 0.752, SEN = 0.730, SPE = 0.758). Stratified analysis showed generalizability across tumor subtypes. Ablation studies indicated complementary information from different modalities. Evaluation showed the 3D Swin Transformer provided more robust representation learning than conventional networks. This multimodal fusion model demonstrated high accuracy and robustness in predicting metastasis risk in HNSCC, offering a comprehensive representation of tumor biology. The interpretable model has potential as a clinical decision-support tool for personalized treatment planning.
- Abstract(参考訳): 転移は頭頸部扁平上皮癌(HNSCC)の治療における大きな課題である。
治療戦略と予後を最適化するためには, 転移リスクの信頼性の高い事前治療予測が重要である。
本研究では,CT画像,放射線画像,臨床データを統合し,HNSCC患者の転移リスクを予測するための深層学習に基づくマルチモーダルフレームワークを開発した。
1497例が報告された。
腫瘍および臓器マスクは, 術前CT像から得られた。
3D Swin Transformerは腫瘍部位から深い特徴を抽出した。
一方、PyRadiomicsを用いて1562個の放射能特性を得た後、相関フィルタリングとランダムな森林選択を行い、36個の特徴を残した。
年齢、性別、喫煙、アルコール状態などの臨床変数をエンコードし、画像由来の特徴と融合させた。
転移リスクを予測するため、マルチモーダル機能は完全に接続されたネットワークに供給された。
曲線下(AUC)、精度(ACC)、感度(SEN)、特異性(SPE)の5倍のクロスバリデーションを用いて評価した。
提案した融合モデルは単一モードモデルよりも優れていた。
3DディープラーニングモジュールだけでAUCは0.715であり、放射能と臨床特徴を組み合わせると予測性能が向上した(AUC = 0.803, ACC = 0.752, SEN = 0.730, SPE = 0.758)。
層状解析では腫瘍のサブタイプ間での一般化性を示した。
アブレーション研究は、異なるモダリティからの相補的な情報を示している。
3D Swin Transformerは従来のネットワークよりも堅牢な表現学習を提供することを示した。
このマルチモーダル核融合モデルでは,HNSCCの転移リスクを予測し,腫瘍生物学の包括的表現を提供する上で,高い精度と堅牢性を示した。
解釈可能なモデルは、パーソナライズされた治療計画のための臨床決定支援ツールとしての可能性を持っている。
関連論文リスト
- LGE-Guided Cross-Modality Contrastive Learning for Gadolinium-Free Cardiomyopathy Screening in Cine CMR [51.11296719862485]
CMRを用いたガドリニウムフリー心筋症スクリーニングのためのコントラシブラーニングおよびクロスモーダルアライメントフレームワークを提案する。
CMRとLate Gadolinium Enhancement (LGE) 配列の潜伏空間を整列させることにより, 本モデルでは線維症特異的な病理組織をCMR埋め込みにエンコードする。
論文 参考訳(メタデータ) (2025-08-23T07:21:23Z) - Improved Prognostic Prediction of Pancreatic Cancer Using Multi-Phase CT
by Integrating Neural Distance and Texture-Aware Transformer [37.55853672333369]
本稿では, 異なる患者のCT像における腫瘍と血管の正確な関係を記述した, 学習可能なニューラル距離を提案する。
発達したリスクマーカーは, 術前因子の生存率の予測因子として最強であった。
論文 参考訳(メタデータ) (2023-08-01T12:46:02Z) - Liver Tumor Screening and Diagnosis in CT with Pixel-Lesion-Patient
Network [37.931408083443074]
Pixel-Lesion-pAtient Network (PLAN) は, アンカークエリの改善と前景のサンプリング損失による各病変の分割と分類を行う。
PLANは95%と96%の患者レベルの感度と特異性を達成している。
造影CTでは, 病変レベルの検出精度, リコール, 分類精度は92%, 89%, 86%であり, CNNやトランスフォーマーよりも優れていた。
論文 参考訳(メタデータ) (2023-07-17T06:21:45Z) - Multimodal Deep Learning for Personalized Renal Cell Carcinoma
Prognosis: Integrating CT Imaging and Clinical Data [3.790959613880792]
腎細胞癌は生存率の低い重要な世界的な健康上の課題である。
本研究の目的は, 腎細胞癌患者の生存確率を予測できる包括的深層学習モデルを考案することであった。
提案フレームワークは,3次元画像特徴抽出器,臨床変数選択,生存予測の3つのモジュールから構成される。
論文 参考訳(メタデータ) (2023-07-07T13:09:07Z) - Integrative Imaging Informatics for Cancer Research: Workflow Automation
for Neuro-oncology (I3CR-WANO) [0.12175619840081271]
我々は,多系列ニューロオンコロジーMRIデータの集約と処理のための人工知能ベースのソリューションを提案する。
エンド・ツー・エンドのフレームワーク i) アンサンブル分類器を用いてMRIの配列を分類し, i) 再現可能な方法でデータを前処理し, iv) 腫瘍組織サブタイプを規定する。
欠落したシーケンスに対して堅牢であり、専門的なループアプローチを採用しており、セグメンテーションの結果は放射線学者によって手動で洗練される可能性がある。
論文 参考訳(メタデータ) (2022-10-06T18:23:42Z) - CAE-Transformer: Transformer-based Model to Predict Invasiveness of Lung
Adenocarcinoma Subsolid Nodules from Non-thin Section 3D CT Scans [36.093580055848186]
肺腺癌(LAUC)は近年最も多い疾患である。
肺結節の侵襲性に関するタイムリーかつ正確な知識は適切な治療計画をもたらし、不必要な手術や遅発手術のリスクを低減させる。
LAUCの浸潤度を評価し,予測するための主要な画像モダリティは胸部CTである。
本稿では、LAUCを分類するために、予測トランスフォーマーベースのフレームワーク「CAE-Transformer」を開発した。
論文 参考訳(メタデータ) (2021-10-17T04:37:24Z) - Comparison of Machine Learning Classifiers to Predict Patient Survival
and Genetics of GBM: Towards a Standardized Model for Clinical Implementation [44.02622933605018]
放射線モデルは、グリオ芽腫(GBM)の結果予測のための臨床データを上回ることが示されています。
GBM患者の生存率(OS),IDH変異,O-6-メチルグアニン-DNA-メチルトランスフェラーゼ(MGMT)プロモーターメチル化,EGFR(EGFR)VII増幅,Ki-67発現の9種類の機械学習分類器を比較した。
xgb は os (74.5%), ab for idh 変異 (88%), mgmt メチル化 (71,7%), ki-67 発現 (86,6%), egfr増幅 (81。
論文 参考訳(メタデータ) (2021-02-10T15:10:37Z) - DeepPrognosis: Preoperative Prediction of Pancreatic Cancer Survival and
Surgical Margin via Contrast-Enhanced CT Imaging [26.162788846435365]
膵管腺癌(PDAC)は最も致命的ながんの1つである。
3D Contrast-Enhanced Convolutional Long Short-Term Memory Network (CE-ConvLSTM) と命名されたPDAC患者の生存予測のための新しいディープニューラルネットワークを提案する。
腫瘍切除マージンに関連する特徴を学習し,生存率予測を改善することにより,予後とマージン予測の両課題を達成できるマルチタスクCNNを提案する。
論文 参考訳(メタデータ) (2020-08-26T22:51:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。