論文の概要: Personalized MR-Informed Diffusion Models for 3D PET Image Reconstruction
- arxiv url: http://arxiv.org/abs/2506.03804v1
- Date: Wed, 04 Jun 2025 10:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.286408
- Title: Personalized MR-Informed Diffusion Models for 3D PET Image Reconstruction
- Title(参考訳): 3次元PET画像再構成のためのMRインフォームド拡散モデル
- Authors: George Webber, Alexander Hammers, Andrew P. King, Andrew J. Reader,
- Abstract要約: 本稿では,PET-MR スキャンのデータセットから対象特異的なPET画像を生成するための簡易な手法を提案する。
私たちが合成した画像は、被験者のMRスキャンからの情報を保持し、高分解能と解剖学的特徴の保持につながる。
18ドルF]FDGデータセットのシミュレーションと実データを用いて,対象特異的な「擬似PET」画像を用いたパーソナライズされた拡散モデルの事前学習により,低カウントデータによる再構成精度が向上することを示す。
- 参考スコア(独自算出の注目度): 44.89560992517543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown improved lesion detectability and flexibility to reconstruction hyperparameters (e.g. scanner geometry or dose level) when PET images are reconstructed by leveraging pre-trained diffusion models. Such methods train a diffusion model (without sinogram data) on high-quality, but still noisy, PET images. In this work, we propose a simple method for generating subject-specific PET images from a dataset of multi-subject PET-MR scans, synthesizing "pseudo-PET" images by transforming between different patients' anatomy using image registration. The images we synthesize retain information from the subject's MR scan, leading to higher resolution and the retention of anatomical features compared to the original set of PET images. With simulated and real [$^{18}$F]FDG datasets, we show that pre-training a personalized diffusion model with subject-specific "pseudo-PET" images improves reconstruction accuracy with low-count data. In particular, the method shows promise in combining information from a guidance MR scan without overly imposing anatomical features, demonstrating an improved trade-off between reconstructing PET-unique image features versus features present in both PET and MR. We believe this approach for generating and utilizing synthetic data has further applications to medical imaging tasks, particularly because patient-specific PET images can be generated without resorting to generative deep learning or large training datasets.
- Abstract(参考訳): 近年の研究では、PET画像の再構成において、事前訓練した拡散モデルを利用して、ハイパーパラメータ(例えば、スキャナー幾何や線量レベル)を再構築するための病変検出性と柔軟性が改善されている。
このような手法は、高画質のPET画像上で拡散モデルを訓練する(シングラムデータなしで)。
本研究では,多目的PET-MRスキャンのデータセットから対象特異的PET画像を生成するための簡易な手法を提案する。
合成した画像は、被験者のMRスキャンからの情報を保持し、元のPET画像と比較すると、高分解能と解剖学的特徴の保持につながる。
擬似および実データを用いたFDGデータセットを用いて、擬似的な拡散モデルと擬似PET画像の事前学習により、低カウントデータによる再構成精度が向上することを示す。
特に,本手法は,解剖学的特徴を過度に含まないガイダンスMRスキャンからの情報を組み合わせて,PET画像とMR画像の両特徴との整合性の向上を示すものである。
関連論文リスト
- Posterior-Mean Denoising Diffusion Model for Realistic PET Image Reconstruction [0.7366405857677227]
Posterior-Mean Denoising Diffusion Model (PMDM-PET)は、最近確立された数学的理論に基づく新しいアプローチである。
PMDM-PETは,まず最小平均二乗誤差(MSE)の下で後平均PETの予測値を取得し,その分布を地上Truth PET画像の分布に最適に伝達する。
実験結果から,PMDM-PETは最小歪みと最適知覚品質を有する現実的なPET画像を生成するだけでなく,定性的視覚検査と定量的ピクセルワイド測定の両方において,最新の5つのSOTA(State-of-the-art (SOTA) DLベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2025-03-11T15:33:50Z) - Multi-Subject Image Synthesis as a Generative Prior for Single-Subject PET Image Reconstruction [40.34650079545031]
信号対雑音比を改良した多彩でリアルな擬似PET画像の合成法を提案する。
単目的PET画像再構成において, 擬似PET画像が生成前駆体としてどのように利用されるかを示す。
論文 参考訳(メタデータ) (2024-12-05T16:40:33Z) - Diffusion Transformer Model With Compact Prior for Low-dose PET Reconstruction [7.320877150436869]
低線量PET画像の再構成品質を高めるために,JCP(Joint compact prior)により導かれる拡散変圧器モデルを提案する。
DTMは拡散モデルの強力な分布マッピング能力と変圧器の容量を組み合わせて長距離依存を捉える。
本手法は放射線曝露リスクを軽減するだけでなく,早期診断や患者管理のためのPETイメージングツールも提供する。
論文 参考訳(メタデータ) (2024-07-01T03:54:43Z) - Image2Points:A 3D Point-based Context Clusters GAN for High-Quality PET
Image Reconstruction [47.398304117228584]
LPETから高品質なSPET画像を再構成する3DポイントベースのコンテキストクラスタGAN(PCC-GAN)を提案する。
臨床とファントムの両方の実験により、PCC-GANは最先端の再建方法よりも優れています。
論文 参考訳(メタデータ) (2024-02-01T06:47:56Z) - Score-Based Generative Models for PET Image Reconstruction [38.72868748574543]
本稿では,PETによるスコアベース生成モデルの適応について提案する。
提案するフレームワークは, 2D PET と 3D PET の両方に対して開発された。
また,磁気共鳴画像を用いたガイド再構成の拡張も提供する。
論文 参考訳(メタデータ) (2023-08-27T19:43:43Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - TriDo-Former: A Triple-Domain Transformer for Direct PET Reconstruction
from Low-Dose Sinograms [45.24575167909925]
TriDoFormerは、シングラム、画像、周波数の3つのドメインを結合して直接再構成するトランスフォーマーベースのモデルである。
最先端の手法を質的に、定量的に上回る。
GFPは、周波数領域の周波数成分を調整するための学習可能な周波数フィルタとして機能し、ネットワークに高周波の詳細を復元させる。
論文 参考訳(メタデータ) (2023-08-10T06:20:00Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。