論文の概要: Merging-Diverging Hybrid Transformer Networks for Survival Prediction in
Head and Neck Cancer
- arxiv url: http://arxiv.org/abs/2307.03427v1
- Date: Fri, 7 Jul 2023 07:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 13:09:21.705557
- Title: Merging-Diverging Hybrid Transformer Networks for Survival Prediction in
Head and Neck Cancer
- Title(参考訳): 頭頸部癌生存予測のための合併拡散ハイブリッド変圧器ネットワーク
- Authors: Mingyuan Meng, Lei Bi, Michael Fulham, Dagan Feng, and Jinman Kim
- Abstract要約: マルチモーダル画像からの生存予測のための統合分散学習フレームワークを提案する。
このフレームワークは、マルチモーダル情報を融合するマージエンコーダと、領域固有情報を抽出する発散デコーダを備える。
頭頸部癌(H&N)におけるPET-CT画像の生存予測について検討した。
- 参考スコア(独自算出の注目度): 10.994223928445589
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Survival prediction is crucial for cancer patients as it provides early
prognostic information for treatment planning. Recently, deep survival models
based on deep learning and medical images have shown promising performance for
survival prediction. However, existing deep survival models are not well
developed in utilizing multi-modality images (e.g., PET-CT) and in extracting
region-specific information (e.g., the prognostic information in Primary Tumor
(PT) and Metastatic Lymph Node (MLN) regions). In view of this, we propose a
merging-diverging learning framework for survival prediction from
multi-modality images. This framework has a merging encoder to fuse
multi-modality information and a diverging decoder to extract region-specific
information. In the merging encoder, we propose a Hybrid Parallel
Cross-Attention (HPCA) block to effectively fuse multi-modality features via
parallel convolutional layers and cross-attention transformers. In the
diverging decoder, we propose a Region-specific Attention Gate (RAG) block to
screen out the features related to lesion regions. Our framework is
demonstrated on survival prediction from PET-CT images in Head and Neck (H&N)
cancer, by designing an X-shape merging-diverging hybrid transformer network
(named XSurv). Our XSurv combines the complementary information in PET and CT
images and extracts the region-specific prognostic information in PT and MLN
regions. Extensive experiments on the public dataset of HEad and neCK TumOR
segmentation and outcome prediction challenge (HECKTOR 2022) demonstrate that
our XSurv outperforms state-of-the-art survival prediction methods.
- Abstract(参考訳): 治療計画の早期予後情報を提供するため、がん患者には生存予測が不可欠である。
近年,深層学習と医用画像に基づく深層生存モデルは,生存予測に有望な性能を示した。
しかし、既存の深部生存モデルは、マルチモダリティ画像(例えばpet-ct)や、領域特異的情報(例えば、原発性腫瘍(pt)および転移性リンパ節(mln)領域の予後情報)の抽出においてうまく開発されていない。
そこで本研究では,マルチモーダル画像からの生存予測のための統合分割学習フレームワークを提案する。
このフレームワークは、マルチモーダル情報を融合するマージエンコーダと、領域固有情報を抽出する発散デコーダを備える。
並列畳み込み層とクロスアテンション変換器を用いて,マルチモーダル特徴を効果的に融合するハイブリッド並列クロスアテンション(HPCA)ブロックを提案する。
分散デコーダでは,病変領域に関連する特徴を明らかにするために,領域固有の注意ゲート(RAG)ブロックを提案する。
頭頸部癌(H&N)におけるPET-CT画像の生存予測について,X字型メルジング分岐型ハイブリッドトランスネットワーク(XSurv)を設計して検討した。
我々のXSurvはPET画像とCT画像の補完情報を組み合わせて,PT領域とMLN領域の領域固有の予後情報を抽出する。
HECKTOR 2022(Head and neCK Tumor segmentation and outcome prediction Challenge)の公開データセットに対する大規模な実験により、我々のXSurvは最先端の生存予測手法より優れていることが示された。
関連論文リスト
- Enhanced Survival Prediction in Head and Neck Cancer Using Convolutional Block Attention and Multimodal Data Fusion [7.252280210331731]
本稿では,頭頸部癌患者の生存率を予測するための深層学習に基づくアプローチを提案する。
提案手法は,特徴抽出をCBAM (Convolutional Block Attention Module) とマルチモーダルデータ融合層と統合する。
最終的な予測は、完全にパラメトリックな離散時間生存モデルによって達成される。
論文 参考訳(メタデータ) (2024-10-29T07:56:04Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - Prototype Learning Guided Hybrid Network for Breast Tumor Segmentation in DCE-MRI [58.809276442508256]
本稿では,畳み込みニューラルネットワーク(CNN)とトランスフォーマー層を組み合わせたハイブリッドネットワークを提案する。
プライベートおよびパブリックなDCE-MRIデータセットの実験結果から,提案したハイブリッドネットワークは最先端の手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-08-11T15:46:00Z) - M2EF-NNs: Multimodal Multi-instance Evidence Fusion Neural Networks for Cancer Survival Prediction [24.323961146023358]
本稿では,M2EF-NNと呼ばれるニューラルネットワークモデルを提案する。
画像中のグローバル情報をキャプチャするために、事前訓練された視覚変換器(ViT)モデルを用いる。
Dempster-Shaferエビデンス理論(DST)を癌生存予測に適用した最初の例である。
論文 参考訳(メタデータ) (2024-08-08T02:31:04Z) - SELECTOR: Heterogeneous graph network with convolutional masked autoencoder for multimodal robust prediction of cancer survival [8.403756148610269]
がん患者生存のマルチモーダル予測は、より包括的で正確なアプローチを提供する。
本稿では、畳み込みマスクエンコーダに基づく異種グラフ認識ネットワークであるSELECTORを紹介する。
本手法は,モダリティ欠落とモダリティ内情報確認の両事例において,最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-14T11:23:39Z) - Cancer-Net PCa-Gen: Synthesis of Realistic Prostate Diffusion Weighted
Imaging Data via Anatomic-Conditional Controlled Latent Diffusion [68.45407109385306]
カナダでは、前立腺がんは男性でもっとも一般的ながんであり、2022年のこの人口統計では、新しいがん症例の20%を占めている。
拡散強調画像(DWI)データを用いた前立腺癌診断,予後,治療計画のためのディープニューラルネットワークの開発には大きな関心が寄せられている。
本研究では,解剖学的条件制御型潜伏拡散戦略の導入により,現実的な前立腺DWIデータを生成するための潜伏拡散の有効性について検討した。
論文 参考訳(メタデータ) (2023-11-30T15:11:03Z) - AdaMSS: Adaptive Multi-Modality Segmentation-to-Survival Learning for Survival Outcome Prediction from PET/CT Images [11.028672732944251]
深層学習に基づくディープサバイバルモデルは、医療画像からエンド・ツー・エンドのサバイバル予測を行うために広く採用されている。
近年のディープサバイバルモデルでは, 生存予測と共同で腫瘍セグメンテーションを行い, 有望な性能を達成している。
既存のディープサバイバルモデルは、マルチモダリティイメージを効果的に活用することはできない。
本稿では,融合戦略の適応最適化を実現する多モード情報を融合するためのデータ駆動型戦略を提案する。
論文 参考訳(メタデータ) (2023-05-17T04:56:11Z) - Prediction of brain tumor recurrence location based on multi-modal
fusion and nonlinear correlation learning [55.789874096142285]
深層学習に基づく脳腫瘍再発位置予測ネットワークを提案する。
まず、パブリックデータセットBraTS 2021上で、マルチモーダル脳腫瘍セグメンテーションネットワークをトレーニングする。
次に、事前訓練されたエンコーダを、リッチなセマンティックな特徴を抽出するために、プライベートデータセットに転送する。
2つのデコーダは、現在の脳腫瘍を共同に分断し、将来の腫瘍再発位置を予測するために構築されている。
論文 参考訳(メタデータ) (2023-04-11T02:45:38Z) - M2Net: Multi-modal Multi-channel Network for Overall Survival Time
Prediction of Brain Tumor Patients [151.4352001822956]
生存時間(OS)の早期かつ正確な予測は、脳腫瘍患者に対するより良い治療計画を得るのに役立つ。
既存の予測手法は、磁気共鳴(MR)ボリュームの局所的な病変領域における放射能特性に依存している。
我々は,マルチモーダルマルチチャネルネットワーク(M2Net)のエンドツーエンドOS時間予測モデルを提案する。
論文 参考訳(メタデータ) (2020-06-01T05:21:37Z) - A Normalized Fully Convolutional Approach to Head and Neck Cancer
Outcome Prediction [2.5690340428649323]
本研究では、FCNプリプロセッササブネットワークを付加したCNN分類ネットワークを、公共TCIAの頭頸部がんデータセットに適用する。
我々は, 集積残差接続を併用したプリプロセッササブネットワークが, CTとPETの両方の入力画像を組み合わせることにより, 最先端の処理結果の改善につながることを示す。
論文 参考訳(メタデータ) (2020-05-28T14:00:47Z) - Inf-Net: Automatic COVID-19 Lung Infection Segmentation from CT Images [152.34988415258988]
CT画像からの肺感染症の自動検出は、新型コロナウイルスに対処するための従来の医療戦略を強化する大きな可能性を秘めている。
CTスライスから感染領域を分割することは、高い感染特性の変化、感染と正常な組織の間の低強度のコントラストなど、いくつかの課題に直面している。
これらの課題に対処するため, 胸部CTスライスから感染部位を自動的に同定する, 新型のCOVID-19 Deep Lung infection Network (Inf-Net) が提案されている。
論文 参考訳(メタデータ) (2020-04-22T07:30:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。