論文の概要: Head and Neck Tumor Segmentation from [18F]F-FDG PET/CT Images Based on
3D Diffusion Model
- arxiv url: http://arxiv.org/abs/2401.17593v1
- Date: Wed, 31 Jan 2024 04:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 15:54:03.987551
- Title: Head and Neck Tumor Segmentation from [18F]F-FDG PET/CT Images Based on
3D Diffusion Model
- Title(参考訳): 3次元拡散モデルに基づく[18F]F-FDG PET/CT画像からの頭頸部腫瘍分離
- Authors: Yafei Dong and Kuang Gong
- Abstract要約: 頭頸部がん(H&N)は、世界で最も多いがんの1つである。
近年,様々な画像生成タスクにおいて拡散モデルが顕著な性能を示した。
- 参考スコア(独自算出の注目度): 2.895809495677426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Head and neck (H&N) cancers are among the most prevalent types of cancer
worldwide, and [18F]F-FDG PET/CT is widely used for H&N cancer management.
Recently, the diffusion model has demonstrated remarkable performance in
various image-generation tasks. In this work, we proposed a 3D diffusion model
to accurately perform H&N tumor segmentation from 3D PET and CT volumes. The 3D
diffusion model was developed considering the 3D nature of PET and CT images
acquired. During the reverse process, the model utilized a 3D UNet structure
and took the concatenation of PET, CT, and Gaussian noise volumes as the
network input to generate the tumor mask. Experiments based on the HECKTOR
challenge dataset were conducted to evaluate the effectiveness of the proposed
diffusion model. Several state-of-the-art techniques based on U-Net and
Transformer structures were adopted as the reference methods. Benefits of
employing both PET and CT as the network input as well as further extending the
diffusion model from 2D to 3D were investigated based on various quantitative
metrics and the uncertainty maps generated. Results showed that the proposed 3D
diffusion model could generate more accurate segmentation results compared with
other methods. Compared to the diffusion model in 2D format, the proposed 3D
model yielded superior results. Our experiments also highlighted the advantage
of utilizing dual-modality PET and CT data over only single-modality data for
H&N tumor segmentation.
- Abstract(参考訳): 頭頸部癌(H&N)は世界で最も多いがんの1つであり,[18F]F-FDG PET/CTはH&N癌管理に広く用いられている。
近年,様々な画像生成タスクにおいて拡散モデルが顕著な性能を示した。
本研究では,3D PETおよびCTボリュームからH&N腫瘍の分画を正確に行うための3次元拡散モデルを提案する。
PET画像とCT画像の3次元特性を考慮した3次元拡散モデルを開発した。
逆過程において, モデルでは3次元unet構造を用い, pet, ct, ガウスノイズをネットワーク入力として結合して腫瘍マスクを生成する。
提案する拡散モデルの有効性を評価するため,hecktor challengeデータセットを用いた実験を行った。
U-NetとTransformer構造に基づく最先端技術が参照手法として採用された。
PETとCTの両方をネットワーク入力とし,さらに拡散モデルを2次元から3次元に拡張する効果を,様々な定量的指標と不確実性マップに基づいて検討した。
その結果,提案した3次元拡散モデルにより,他の手法と比較してより正確なセグメンテーション結果が得られた。
2次元の拡散モデルと比較すると,提案する3次元モデルの方が優れた結果を得た。
また,H&N腫瘍セグメンテーションのための単一モダリティデータのみを用いた二重モダリティPETおよびCTデータの有用性を強調した。
関連論文リスト
- Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - 2.5D Multi-view Averaging Diffusion Model for 3D Medical Image Translation: Application to Low-count PET Reconstruction with CT-less Attenuation Correction [17.897681480967087]
ポジトロン・エミッション・トモグラフィ(PET)は重要な臨床画像診断ツールであるが、患者や医療機関に必然的に放射線障害をもたらす。
非減衰補正低線量PETを減衰補正標準線量PETに変換する3D法の開発が望ましい。
近年の拡散モデルは、従来のCNNベースの手法よりも優れた画像から画像への翻訳のための最先端のディープラーニング手法として登場した。
NACを用いた3次元画像から画像への変換のための新しい2.5次元マルチビュー平均拡散モデル(MADM)を開発した。
論文 参考訳(メタデータ) (2024-06-12T16:22:41Z) - DiffHPE: Robust, Coherent 3D Human Pose Lifting with Diffusion [54.0238087499699]
拡散モデルにより,人間のポーズ推定精度,ロバスト性,コヒーレンス性が向上することを示す。
3D-HPEにおける拡散モデルを利用する新しい戦略であるDiffHPEを紹介する。
以上の結果から, 独立拡散モデルにより, 予測可能な性能が得られる一方で, 教師付きモデルと組み合わせて精度が向上することが示唆された。
論文 参考訳(メタデータ) (2023-09-04T12:54:10Z) - Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models [52.529394863331326]
本稿では,2つの垂直2次元拡散モデルを用いて3次元逆問題の解法を提案する。
MRI Z軸超解像, 圧縮センシングMRI, スパースCTなどの3次元医用画像再構成作業に有効である。
論文 参考訳(メタデータ) (2023-03-15T08:28:06Z) - Unsupervised Contrastive Learning based Transformer for Lung Nodule
Detection [6.693379403133435]
CTによる肺結節の早期発見は,肺癌患者の長期生存と生活の質の向上に不可欠である。
CAD (Computer-Aided Detection/diagnosis) はこの文脈において第2または同時読影器として有用である。
肺結節の正確な検出は、サイズ、位置、および肺結節の出現のばらつきにより、CADシステムや放射線技師にとって依然として困難である。
近年のコンピュータビジョン技術に触発されて,肺結節を同定するための自己教師付き領域ベース3次元トランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-04-30T01:19:00Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - Evidential segmentation of 3D PET/CT images [20.65495780362289]
3D PET/CT画像におけるリンパ腫のセグメント化には、信念関数に基づくセグメンテーション法が提案されている。
アーキテクチャは特徴抽出モジュールと明白なセグメンテーション(ES)モジュールで構成されている。
びまん性大細胞性b細胞リンパ腫173例のデータベース上で評価した。
論文 参考訳(メタデータ) (2021-04-27T16:06:27Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Modelling the Distribution of 3D Brain MRI using a 2D Slice VAE [66.63629641650572]
本研究では,2次元スライスVAEとガウスモデルを組み合わせた3次元MR脳の体積分布をモデル化する手法を提案する。
また,本研究では,脳解剖学に適合するセグメンテーションの精度を定量的に評価する新たなボリューム評価手法を提案する。
論文 参考訳(メタデータ) (2020-07-09T13:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。