論文の概要: Head and Neck Tumor Segmentation from [18F]F-FDG PET/CT Images Based on
3D Diffusion Model
- arxiv url: http://arxiv.org/abs/2401.17593v1
- Date: Wed, 31 Jan 2024 04:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 15:54:03.987551
- Title: Head and Neck Tumor Segmentation from [18F]F-FDG PET/CT Images Based on
3D Diffusion Model
- Title(参考訳): 3次元拡散モデルに基づく[18F]F-FDG PET/CT画像からの頭頸部腫瘍分離
- Authors: Yafei Dong and Kuang Gong
- Abstract要約: 頭頸部がん(H&N)は、世界で最も多いがんの1つである。
近年,様々な画像生成タスクにおいて拡散モデルが顕著な性能を示した。
- 参考スコア(独自算出の注目度): 2.895809495677426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Head and neck (H&N) cancers are among the most prevalent types of cancer
worldwide, and [18F]F-FDG PET/CT is widely used for H&N cancer management.
Recently, the diffusion model has demonstrated remarkable performance in
various image-generation tasks. In this work, we proposed a 3D diffusion model
to accurately perform H&N tumor segmentation from 3D PET and CT volumes. The 3D
diffusion model was developed considering the 3D nature of PET and CT images
acquired. During the reverse process, the model utilized a 3D UNet structure
and took the concatenation of PET, CT, and Gaussian noise volumes as the
network input to generate the tumor mask. Experiments based on the HECKTOR
challenge dataset were conducted to evaluate the effectiveness of the proposed
diffusion model. Several state-of-the-art techniques based on U-Net and
Transformer structures were adopted as the reference methods. Benefits of
employing both PET and CT as the network input as well as further extending the
diffusion model from 2D to 3D were investigated based on various quantitative
metrics and the uncertainty maps generated. Results showed that the proposed 3D
diffusion model could generate more accurate segmentation results compared with
other methods. Compared to the diffusion model in 2D format, the proposed 3D
model yielded superior results. Our experiments also highlighted the advantage
of utilizing dual-modality PET and CT data over only single-modality data for
H&N tumor segmentation.
- Abstract(参考訳): 頭頸部癌(H&N)は世界で最も多いがんの1つであり,[18F]F-FDG PET/CTはH&N癌管理に広く用いられている。
近年,様々な画像生成タスクにおいて拡散モデルが顕著な性能を示した。
本研究では,3D PETおよびCTボリュームからH&N腫瘍の分画を正確に行うための3次元拡散モデルを提案する。
PET画像とCT画像の3次元特性を考慮した3次元拡散モデルを開発した。
逆過程において, モデルでは3次元unet構造を用い, pet, ct, ガウスノイズをネットワーク入力として結合して腫瘍マスクを生成する。
提案する拡散モデルの有効性を評価するため,hecktor challengeデータセットを用いた実験を行った。
U-NetとTransformer構造に基づく最先端技術が参照手法として採用された。
PETとCTの両方をネットワーク入力とし,さらに拡散モデルを2次元から3次元に拡張する効果を,様々な定量的指標と不確実性マップに基づいて検討した。
その結果,提案した3次元拡散モデルにより,他の手法と比較してより正確なセグメンテーション結果が得られた。
2次元の拡散モデルと比較すると,提案する3次元モデルの方が優れた結果を得た。
また,H&N腫瘍セグメンテーションのための単一モダリティデータのみを用いた二重モダリティPETおよびCTデータの有用性を強調した。
関連論文リスト
- 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - High-Fidelity 3D Lung CT Synthesis in ARDS Swine Models Using Score-Based 3D Residual Diffusion Models [13.79974752491887]
急性呼吸不全症候群(ARDS)は、肺炎症と呼吸不全を特徴とする重症疾患であり、死亡率は約40%である。
胸部X線のような従来の画像撮影法は、肺病理の完全な評価において、その効果を制限し、2次元のビューのみを提供する。
本研究では, スコアベース3D残差拡散モデルを用いて2次元X線画像から高忠実度3D肺CTを合成する。
論文 参考訳(メタデータ) (2024-09-26T18:22:34Z) - How To Segment in 3D Using 2D Models: Automated 3D Segmentation of Prostate Cancer Metastatic Lesions on PET Volumes Using Multi-Angle Maximum Intensity Projections and Diffusion Models [0.2975630647042519]
本研究は,PSMA PET/CT 3Dボリューム画像における転移病変の自動分割のための新しいアプローチを提案する。
提案手法は,PSMA PET画像の多重角最大強度投影(MA-MIP)に病変を分割する。
提案法は, 微小転移性PCa病変の検出・分節における精度, 堅牢性の観点から, 最先端の3次元分節法に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2024-07-26T07:08:05Z) - Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - 2.5D Multi-view Averaging Diffusion Model for 3D Medical Image Translation: Application to Low-count PET Reconstruction with CT-less Attenuation Correction [17.897681480967087]
ポジトロン・エミッション・トモグラフィ(PET)は重要な臨床画像診断ツールであるが、患者や医療機関に必然的に放射線障害をもたらす。
非減衰補正低線量PETを減衰補正標準線量PETに変換する3D法の開発が望ましい。
近年の拡散モデルは、従来のCNNベースの手法よりも優れた画像から画像への翻訳のための最先端のディープラーニング手法として登場した。
NACを用いた3次元画像から画像への変換のための新しい2.5次元マルチビュー平均拡散モデル(MADM)を開発した。
論文 参考訳(メタデータ) (2024-06-12T16:22:41Z) - DiffHPE: Robust, Coherent 3D Human Pose Lifting with Diffusion [54.0238087499699]
拡散モデルにより,人間のポーズ推定精度,ロバスト性,コヒーレンス性が向上することを示す。
3D-HPEにおける拡散モデルを利用する新しい戦略であるDiffHPEを紹介する。
以上の結果から, 独立拡散モデルにより, 予測可能な性能が得られる一方で, 教師付きモデルと組み合わせて精度が向上することが示唆された。
論文 参考訳(メタデータ) (2023-09-04T12:54:10Z) - Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models [52.529394863331326]
本稿では,2つの垂直2次元拡散モデルを用いて3次元逆問題の解法を提案する。
MRI Z軸超解像, 圧縮センシングMRI, スパースCTなどの3次元医用画像再構成作業に有効である。
論文 参考訳(メタデータ) (2023-03-15T08:28:06Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Modelling the Distribution of 3D Brain MRI using a 2D Slice VAE [66.63629641650572]
本研究では,2次元スライスVAEとガウスモデルを組み合わせた3次元MR脳の体積分布をモデル化する手法を提案する。
また,本研究では,脳解剖学に適合するセグメンテーションの精度を定量的に評価する新たなボリューム評価手法を提案する。
論文 参考訳(メタデータ) (2020-07-09T13:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。