論文の概要: Cyclic 2.5D Perceptual Loss for Cross-Modal 3D Medical Image Synthesis: T1w MRI to Tau PET
- arxiv url: http://arxiv.org/abs/2406.12632v2
- Date: Thu, 15 May 2025 05:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:05.98374
- Title: Cyclic 2.5D Perceptual Loss for Cross-Modal 3D Medical Image Synthesis: T1w MRI to Tau PET
- Title(参考訳): クロスモーダルな3次元医用画像合成のための2.5次元周期的損失:T1w MRIからTau PET
- Authors: Junho Moon, Symac Kim, Haejun Chung, Ikbeom Jang,
- Abstract要約: 本研究では, 軸方向, コロナ面, 矢状面の各2次元平均知覚損失をエポック上で計算する巡回2.5D知覚損失を提案する。
我々は,高SUVR領域の保存性を高めるために,バイマニュファクチャラー標準化を用いたタウPET画像を処理する。
- 参考スコア(独自算出の注目度): 0.04924932828166548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a demand for medical image synthesis or translation to generate synthetic images of missing modalities from available data. This need stems from challenges such as restricted access to high-cost imaging devices, government regulations, or failure to follow up with patients or study participants. In medical imaging, preserving high-level semantic features is often more critical than achieving pixel-level accuracy. Perceptual loss functions are widely employed to train medical image synthesis or translation models, as they quantify differences in high-level image features using a pre-trained feature extraction network. While 3D and 2.5D perceptual losses are used in 3D medical image synthesis, they face challenges, such as the lack of pre-trained 3D models or difficulties in balancing loss reduction across different planes. In this work, we focus on synthesizing 3D tau PET images from 3D T1-weighted MR images. We propose a cyclic 2.5D perceptual loss that sequentially computes the 2D average perceptual loss for each of the axial, coronal, and sagittal planes over epochs, with the cycle duration gradually decreasing. Additionally, we process tau PET images using by-manufacturer standardization to enhance the preservation of high-SUVR regions indicative of tau pathology and mitigate SUVR variability caused by inter-manufacturer differences. We combine the proposed loss with SSIM and MSE losses and demonstrate its effectiveness in improving both quantitative and qualitative performance across various generative models, including U-Net, UNETR, SwinUNETR, CycleGAN, and Pix2Pix.
- Abstract(参考訳): 医用画像の合成や翻訳が求められており、利用可能なデータから欠落したモダリティの合成画像を生成する。
このニーズは、高コストイメージングデバイスへのアクセス制限、政府の規制、患者や研究参加者の追跡の失敗といった課題に起因している。
医用画像では、ピクセルレベルの精度を達成するよりも、高レベルの意味的特徴を保存することが重要である。
知覚損失関数は、事前訓練された特徴抽出ネットワークを用いて高レベルの画像特徴の違いを定量化するため、医用画像合成や翻訳モデルの訓練に広く用いられている。
3Dと2.5Dの知覚的損失は3Dの医用画像合成に使われているが、事前訓練された3Dモデルの欠如や、異なる平面間での損失低減のバランスの難しさといった課題に直面している。
本研究では,3次元T1強調MR画像から3次元タウPET画像の合成に着目する。
本研究では, 軸方向, コロナ面, 矢状面の各2次元平均知覚損失をエポック上で逐次計算し, 周期周期を緩やかに減少させる循環2.5D知覚損失を提案する。
さらに,バイマニュファクチャラーの標準化によるタウPET画像の処理を行い,タウの病態を示す高SUVR領域の保存と,製造者間の違いによるSUVR変動の軽減を図る。
提案した損失をSSIMとMSEの損失と組み合わせて,U-Net, UNETR, SwinUNETR, CycleGAN, Pix2Pixなど,様々な生成モデルにおける定量的および定性的な性能改善の有効性を示す。
関連論文リスト
- End-to-end Triple-domain PET Enhancement: A Hybrid Denoising-and-reconstruction Framework for Reconstructing Standard-dose PET Images from Low-dose PET Sinograms [43.13562515963306]
低線量PETシングラムから標準線量PET画像の再構成を行うために,TripleTフレームワークを提案する。
提案したTriPLETは,最先端の手法と比較して,SPET画像と実データとの類似性と信号対雑音比が最も高い再構成を行うことができる。
論文 参考訳(メタデータ) (2024-12-04T14:47:27Z) - Cycle-Constrained Adversarial Denoising Convolutional Network for PET Image Denoising: Multi-Dimensional Validation on Large Datasets with Reader Study and Real Low-Dose Data [9.160782425067712]
低線量スキャンから高画質画像を再構成するためのCycle-DCN(Cycle-versa Adrial Denoising Convolutional Network)を提案する。
1,224名の患者から得られた生のPET脳データからなる大規模なデータセットを用いて実験を行った。
サイクルDCNは平均ピーク信号対雑音比(PSNR)、SSIM、正規化ルート平均角誤差(NRMSE)を3つの線量レベルで改善する。
論文 参考訳(メタデータ) (2024-10-31T04:34:28Z) - Functional Imaging Constrained Diffusion for Brain PET Synthesis from Structural MRI [5.190302448685122]
新しい制約拡散モデル (CDM) を用いて, 入力条件として2組構造MRIを用いた3次元脳PET画像合成のためのフレームワークを提案する。
FICDはPETにノイズを導入し、CDMで徐々に除去する。
CDMは、各denoized PETと基底真理との間のボクセルワイドアライメントを確保するために、機能的イメージング制約を導入して、denoized PETを予測することを学ぶ。
論文 参考訳(メタデータ) (2024-05-03T22:33:46Z) - Three-Dimensional Amyloid-Beta PET Synthesis from Structural MRI with Conditional Generative Adversarial Networks [45.426889188365685]
アルツハイマー病の徴候には、アミロイド-ベタ鉱床と脳萎縮がある。
PETは高価で侵襲的であり、患者を電離放射線に曝す。
MRIはより安価で、非侵襲的で、電離放射線を含まないが、脳萎縮の測定に限られる。
論文 参考訳(メタデータ) (2024-05-03T14:10:29Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - PET Synthesis via Self-supervised Adaptive Residual Estimation
Generative Adversarial Network [14.381830012670969]
近年,低線量画像から高画質PET画像を生成する手法が,低線量画像の回収手法の最先端技術であることが報告されている。
これらの問題に対処するため、我々は自己教師付き適応残差推定生成対向ネットワーク(SS-AEGAN)を開発した。
SS-AEGANは、様々な線量還元因子による最先端の合成法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-10-24T06:43:56Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - TriDo-Former: A Triple-Domain Transformer for Direct PET Reconstruction
from Low-Dose Sinograms [45.24575167909925]
TriDoFormerは、シングラム、画像、周波数の3つのドメインを結合して直接再構成するトランスフォーマーベースのモデルである。
最先端の手法を質的に、定量的に上回る。
GFPは、周波数領域の周波数成分を調整するための学習可能な周波数フィルタとして機能し、ネットワークに高周波の詳細を復元させる。
論文 参考訳(メタデータ) (2023-08-10T06:20:00Z) - CG-3DSRGAN: A classification guided 3D generative adversarial network
for image quality recovery from low-dose PET images [10.994223928445589]
PET画像では, トレーサー線量による高放射能が主な関心事である。
投与量を減少させると、画像の質が不十分になる。
CNNを用いた低線量PET合成法が開発されている。
論文 参考訳(メタデータ) (2023-04-03T05:39:02Z) - Synthetic PET via Domain Translation of 3D MRI [1.0052333944678682]
56ドルのF-FDG-PET/MRI検査データセットを用いて3D残像UNetをトレーニングし,全身T1強調MRIによる生理的PET取り込みを予測する。
予測されたPET画像は前方に投影され、ベンダーが提供するPET再構成アルゴリズムで使用できる合成PETタイム・オブ・フライ・シングラムを生成する。
論文 参考訳(メタデータ) (2022-06-11T21:32:40Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。