論文の概要: Multi-Subject Image Synthesis as a Generative Prior for Single-Subject PET Image Reconstruction
- arxiv url: http://arxiv.org/abs/2412.04324v1
- Date: Thu, 05 Dec 2024 16:40:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:39:42.403604
- Title: Multi-Subject Image Synthesis as a Generative Prior for Single-Subject PET Image Reconstruction
- Title(参考訳): 単目的PET画像再構成のための生成前駆体としての多目的画像合成
- Authors: George Webber, Yuya Mizuno, Oliver D. Howes, Alexander Hammers, Andrew P. King, Andrew J. Reader,
- Abstract要約: 信号対雑音比を改良した多彩でリアルな擬似PET画像の合成法を提案する。
単目的PET画像再構成において, 擬似PET画像が生成前駆体としてどのように利用されるかを示す。
- 参考スコア(独自算出の注目度): 40.34650079545031
- License:
- Abstract: Large high-quality medical image datasets are difficult to acquire but necessary for many deep learning applications. For positron emission tomography (PET), reconstructed image quality is limited by inherent Poisson noise. We propose a novel method for synthesising diverse and realistic pseudo-PET images with improved signal-to-noise ratio. We also show how our pseudo-PET images may be exploited as a generative prior for single-subject PET image reconstruction. Firstly, we perform deep-learned deformable registration of multi-subject magnetic resonance (MR) images paired to multi-subject PET images. We then use the anatomically-learned deformation fields to transform multiple PET images to the same reference space, before averaging random subsets of the transformed multi-subject data to form a large number of varying pseudo-PET images. We observe that using MR information for registration imbues the resulting pseudo-PET images with improved anatomical detail compared to the originals. We consider applications to PET image reconstruction, by generating pseudo-PET images in the same space as the intended single-subject reconstruction and using them as training data for a diffusion model-based reconstruction method. We show visual improvement and reduced background noise in our 2D reconstructions as compared to OSEM, MAP-EM and an existing state-of-the-art diffusion model-based approach. Our method shows the potential for utilising highly subject-specific prior information within a generative reconstruction framework. Future work may compare the benefits of our approach to explicitly MR-guided reconstruction methodologies.
- Abstract(参考訳): 大規模な高品質な医用画像データセットは取得が難しいが、多くのディープラーニングアプリケーションには必要である。
ポジトロン・エミッション・トモグラフィー(PET)では、再構成された画質は固有のポアソンノイズによって制限される。
信号対雑音比を改良した多彩でリアルな擬似PET画像の合成法を提案する。
また, 単目的PET画像再構成において, 擬似PET画像が生成前駆体として活用される可能性も示した。
まず,多目的磁気共鳴(MR)画像と多目的PET画像とを組み合わせ,深層学習で変形可能な登録を行う。
次に、解剖学的に学習した変形場を用いて複数のPET画像を同じ参照空間に変換し、変換されたマルチオブジェクトデータのランダムなサブセットを平均化し、多数の擬似PET画像を生成する。
登録にMR情報を用いることで,得られた擬似PET画像に原画像と比較して解剖学的詳細が向上することが観察された。
PET画像再構成への応用について検討し, 目的の単一オブジェクト再構成と同じ空間で擬似PET画像を生成し, 拡散モデルに基づく再構成手法のトレーニングデータとして利用する。
我々は,OSEM,MAP-EMおよび既存の拡散モデルに基づくアプローチと比較して,視覚的改善と背景雑音の低減を示す。
提案手法は,生成的再構成フレームワーク内で,高度に主題特異的な事前情報を活用する可能性を示す。
MRガイド下再建法に対するアプローチのメリットを,今後の課題として比較する。
関連論文リスト
- Multi-Branch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction [42.95604565673447]
本稿では,マルチブランチ生成モデルを用いた医用画像の相乗的再構築のための新しい手法を提案する。
我々は,MNIST (Modified National Institute of Standards and Technology) とPET (positron emission tomography) とCT (Computed tomography) の2つのデータセットに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-04-12T18:21:08Z) - Image2Points:A 3D Point-based Context Clusters GAN for High-Quality PET
Image Reconstruction [47.398304117228584]
LPETから高品質なSPET画像を再構成する3DポイントベースのコンテキストクラスタGAN(PCC-GAN)を提案する。
臨床とファントムの両方の実験により、PCC-GANは最先端の再建方法よりも優れています。
論文 参考訳(メタデータ) (2024-02-01T06:47:56Z) - Score-Based Generative Models for PET Image Reconstruction [38.72868748574543]
本稿では,PETによるスコアベース生成モデルの適応について提案する。
提案するフレームワークは, 2D PET と 3D PET の両方に対して開発された。
また,磁気共鳴画像を用いたガイド再構成の拡張も提供する。
論文 参考訳(メタデータ) (2023-08-27T19:43:43Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - TriDo-Former: A Triple-Domain Transformer for Direct PET Reconstruction
from Low-Dose Sinograms [45.24575167909925]
TriDoFormerは、シングラム、画像、周波数の3つのドメインを結合して直接再構成するトランスフォーマーベースのモデルである。
最先端の手法を質的に、定量的に上回る。
GFPは、周波数領域の周波数成分を調整するための学習可能な周波数フィルタとして機能し、ネットワークに高周波の詳細を復元させる。
論文 参考訳(メタデータ) (2023-08-10T06:20:00Z) - Fully 3D Implementation of the End-to-end Deep Image Prior-based PET
Image Reconstruction Using Block Iterative Algorithm [0.0]
Deep Image prior (DIP) はPET画像再構成により注目されている。
本稿では, エンドツーエンドDIPベースの完全3次元PET画像再構成手法の実装を初めて試みる。
論文 参考訳(メタデータ) (2022-12-22T16:25:58Z) - List-Mode PET Image Reconstruction Using Deep Image Prior [3.6427817678422016]
PET(List-mode positron emission tomography)画像再構成はPETスキャナーにとって重要なツールである。
深層学習はPET画像再構成の品質を高める1つの方法である。
本研究では,Deep image priorと呼ばれる教師なしCNNを用いた新しいPET画像再構成手法を提案する。
論文 参考訳(メタデータ) (2022-04-28T10:44:33Z) - Direct PET Image Reconstruction Incorporating Deep Image Prior and a
Forward Projection Model [0.0]
畳み込みニューラルネットワーク(CNN)は近年,PET画像再構成において顕著な性能を発揮している。
深層画像前処理を組み込んだ非教師なし直接PET画像再構成手法を提案する。
提案手法は,非教師なしPET画像再構成を実現するために,損失関数付き前方投影モデルを組み込んだ。
論文 参考訳(メタデータ) (2021-09-02T08:07:58Z) - Multi-institutional Collaborations for Improving Deep Learning-based
Magnetic Resonance Image Reconstruction Using Federated Learning [62.17532253489087]
深層学習法はmr画像再構成において優れた性能をもたらすことが示されている。
これらの方法は、高い取得コストと医療データプライバシー規制のために収集および共有が困難である大量のデータを必要とします。
我々は,異なる施設で利用可能なmrデータを活用し,患者のプライバシーを保ちながら,連合学習(fl)ベースのソリューションを提案する。
論文 参考訳(メタデータ) (2021-03-03T03:04:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。