論文の概要: Cascaded 3D Diffusion Models for Whole-body 3D 18-F FDG PET/CT synthesis from Demographics
- arxiv url: http://arxiv.org/abs/2505.22489v1
- Date: Wed, 28 May 2025 15:38:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.701044
- Title: Cascaded 3D Diffusion Models for Whole-body 3D 18-F FDG PET/CT synthesis from Demographics
- Title(参考訳): デモグラフィーによる全体3次元FDG PET/CT合成のための3次元拡散モデル
- Authors: Siyeop Yoon, Sifan Song, Pengfei Jin, Matthew Tivnan, Yujin Oh, Sekeun Kim, Dufan Wu, Xiang Li, Quanzheng Li,
- Abstract要約: 人口統計学変数から直接高忠実度3D PET/CTボリュームを合成するための3次元拡散モデルフレームワークを提案する。
初期スコアベース拡散モデルでは、人口統計学的変数のみから低分解能PET/CTボリュームを合成する。
この後、空間分解能を洗練させる超解像残留拡散モデルが続く。
- 参考スコア(独自算出の注目度): 13.016275337899895
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a cascaded 3D diffusion model framework to synthesize high-fidelity 3D PET/CT volumes directly from demographic variables, addressing the growing need for realistic digital twins in oncologic imaging, virtual trials, and AI-driven data augmentation. Unlike deterministic phantoms, which rely on predefined anatomical and metabolic templates, our method employs a two-stage generative process. An initial score-based diffusion model synthesizes low-resolution PET/CT volumes from demographic variables alone, providing global anatomical structures and approximate metabolic activity. This is followed by a super-resolution residual diffusion model that refines spatial resolution. Our framework was trained on 18-F FDG PET/CT scans from the AutoPET dataset and evaluated using organ-wise volume and standardized uptake value (SUV) distributions, comparing synthetic and real data between demographic subgroups. The organ-wise comparison demonstrated strong concordance between synthetic and real images. In particular, most deviations in metabolic uptake values remained within 3-5% of the ground truth in subgroup analysis. These findings highlight the potential of cascaded 3D diffusion models to generate anatomically and metabolically accurate PET/CT images, offering a robust alternative to traditional phantoms and enabling scalable, population-informed synthetic imaging for clinical and research applications.
- Abstract(参考訳): 本稿では,高忠実度3D PET/CTボリュームを人口動態から直接合成する3次元拡散モデルフレームワークを提案する。
解剖学的および代謝的テンプレートに依存する決定論的ファントムとは異なり,本手法では2段階生成法を用いる。
初期スコアベース拡散モデルでは、人口統計学的変数のみから低分解能PET/CTボリュームを合成し、大域的な解剖学的構造と近似代謝活性を提供する。
この後、空間分解能を洗練させる超解像残留拡散モデルが続く。
筆者らは,AutoPETデータセットから18-F FDG PET/CTスキャンをトレーニングし,臓器の体積とSUV(Standardized Uptake value)分布を用いて,人口集団間での合成データと実データの比較を行った。
臓器比較では, 合成画像と実画像とが強い一致を示した。
特に, メタボリック取り込み値のほとんどの偏差は, サブグループ分析における基底真理の3.5%に留まった。
これらの知見は、解剖学的および代謝学的に正確なPET/CT画像を生成するためのカスケード3次元拡散モデルの可能性を強調し、従来のファントムに代わる堅牢な代替手段を提供し、臨床および研究用途にスケーラブルで集団インフォームド合成画像を可能にする。
関連論文リスト
- Improving Heart Rejection Detection in XPCI Images Using Synthetic Data Augmentation [0.0]
StyleGANは利用可能な3Rバイオプシーパッチで訓練され、その後、1万のリアルな合成画像を生成するために使用された。
これらは、ResNet-18分類器をバイナリーリジェクション分類のために訓練するための様々な構成において、レジェクション無しのサンプルである実際の0Rサンプルと組み合わせられた。
その結果, 実検体と組み合わせて使用する場合, 合成データにより分類性能が向上することが示唆された。
論文 参考訳(メタデータ) (2025-05-26T09:26:36Z) - GAN-based synthetic FDG PET images from T1 brain MRI can serve to improve performance of deep unsupervised anomaly detection models [1.1259214300411828]
我々は、T1強調MRIデータから合成脳(18F)フルオロデオキシグルコース(FDG)PET画像を生成するための異なるGANベースのフレームワークを設計、比較した。
深部非教師付き異常検出(UAD)モデルのトレーニングにおいて,これらの偽PETデータを使用することによるさらなる影響について検討する。
以上の結果から, MR T1からFDG PETへの変換, トランスフォーマーや拡散モデルよりも優れたGANモデルが最適であることが確認された。
論文 参考訳(メタデータ) (2025-05-12T09:00:03Z) - UAVTwin: Neural Digital Twins for UAVs using Gaussian Splatting [57.63613048492219]
UAVTwinは,無人航空機(UAV)に埋め込まれた下流モデルの訓練を行うための,実環境からデジタル双生児を作成する方法である。
これは、背景を再構築するための3Dガウススティング(3DGS)と、多様な外観と動作を複数のポーズで表示する制御可能な合成人間モデルを統合することで実現される。
論文 参考訳(メタデータ) (2025-04-02T22:17:30Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - An Organism Starts with a Single Pix-Cell: A Neural Cellular Diffusion for High-Resolution Image Synthesis [8.01395073111961]
我々は、GeCA(Generative Cellular Automata)と呼ばれる新しいモデルのファミリーを紹介する。
GeCAは2つの画像モダリティ(Fundus and Optical Coherence Tomography, OCT)にまたがる網膜疾患分類の効果的な拡張ツールとして評価される
データが不足し,クラス分布が本質的に歪んでいるOCT画像の文脈では,GeCAは11種類の眼科領域の性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-07-03T11:26:09Z) - Head and Neck Tumor Segmentation from [18F]F-FDG PET/CT Images Based on 3D Diffusion Model [2.4512350526408704]
頭頸部がん(H&N)は、世界で最も多いがんの1つである。
近年,様々な画像生成タスクにおいて拡散モデルが顕著な性能を示した。
論文 参考訳(メタデータ) (2024-01-31T04:34:31Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Modelling the Distribution of 3D Brain MRI using a 2D Slice VAE [66.63629641650572]
本研究では,2次元スライスVAEとガウスモデルを組み合わせた3次元MR脳の体積分布をモデル化する手法を提案する。
また,本研究では,脳解剖学に適合するセグメンテーションの精度を定量的に評価する新たなボリューム評価手法を提案する。
論文 参考訳(メタデータ) (2020-07-09T13:23:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。