論文の概要: CG-3DSRGAN: A classification guided 3D generative adversarial network
for image quality recovery from low-dose PET images
- arxiv url: http://arxiv.org/abs/2304.00725v1
- Date: Mon, 3 Apr 2023 05:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 16:35:07.631886
- Title: CG-3DSRGAN: A classification guided 3D generative adversarial network
for image quality recovery from low-dose PET images
- Title(参考訳): CG-3DSRGAN:低線量PET画像からの画質回復のための分類ガイド付き3次元生成対向ネットワーク
- Authors: Yuxin Xue, Yige Peng, Lei Bi, and Dagan Feng, Jinman Kim
- Abstract要約: PET画像では, トレーサー線量による高放射能が主な関心事である。
投与量を減少させると、画像の質が不十分になる。
CNNを用いた低線量PET合成法が開発されている。
- 参考スコア(独自算出の注目度): 10.994223928445589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positron emission tomography (PET) is the most sensitive molecular imaging
modality routinely applied in our modern healthcare. High radioactivity caused
by the injected tracer dose is a major concern in PET imaging and limits its
clinical applications. However, reducing the dose leads to inadequate image
quality for diagnostic practice. Motivated by the need to produce high quality
images with minimum low-dose, Convolutional Neural Networks (CNNs) based
methods have been developed for high quality PET synthesis from its low-dose
counterparts. Previous CNNs-based studies usually directly map low-dose PET
into features space without consideration of different dose reduction level. In
this study, a novel approach named CG-3DSRGAN (Classification-Guided Generative
Adversarial Network with Super Resolution Refinement) is presented.
Specifically, a multi-tasking coarse generator, guided by a classification
head, allows for a more comprehensive understanding of the noise-level features
present in the low-dose data, resulting in improved image synthesis. Moreover,
to recover spatial details of standard PET, an auxiliary super resolution
network - Contextual-Net - is proposed as a second-stage training to narrow the
gap between coarse prediction and standard PET. We compared our method to the
state-of-the-art methods on whole-body PET with different dose reduction
factors (DRFs). Experiments demonstrate our method can outperform others on all
DRF.
- Abstract(参考訳): ポジトロン・エミッション・トモグラフィー (PET) は, 現代医療において, 最も感度の高い分子イメージング法である。
注入トレーサー線量による高放射能はPET画像における主要な関心事であり、臨床応用を制限している。
しかし、投与量を減少させると、画像品質が不適切な診断に繋がる。
低線量で高画質な画像を作成する必要性から、低線量で高画質なPET合成のための畳み込みニューラルネットワーク(CNN)ベースの手法が開発されている。
従来のCNNによる研究は通常、低用量PETを異なる線量還元レベルを考慮せずに特徴空間に直接マッピングする。
本研究では,CG-3DSRGAN (Classification-Guided Generative Adversarial Network with Super Resolution Refinement) という新しい手法を提案する。
具体的には、分類ヘッドによって誘導されるマルチタスク粗いジェネレータにより、低線量データに存在するノイズレベルの特徴をより包括的に理解し、画像合成を改善することができる。
さらに,標準PETの空間的詳細を回復するために,第2段階のトレーニングとして補助的な超解像ネットワークであるContextual-Netを提案し,粗い予測と標準PETのギャップを狭める。
本手法を全身PETにおける各線量低減因子 (DRF) の経時的変化と比較した。
実験により、我々の手法は全てのDRFにおいて他よりも優れることを示した。
関連論文リスト
- Image2Points:A 3D Point-based Context Clusters GAN for High-Quality PET
Image Reconstruction [47.398304117228584]
LPETから高品質なSPET画像を再構成する3DポイントベースのコンテキストクラスタGAN(PCC-GAN)を提案する。
臨床とファントムの両方の実験により、PCC-GANは最先端の再建方法よりも優れています。
論文 参考訳(メタデータ) (2024-02-01T06:47:56Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - PET Synthesis via Self-supervised Adaptive Residual Estimation
Generative Adversarial Network [14.381830012670969]
近年,低線量画像から高画質PET画像を生成する手法が,低線量画像の回収手法の最先端技術であることが報告されている。
これらの問題に対処するため、我々は自己教師付き適応残差推定生成対向ネットワーク(SS-AEGAN)を開発した。
SS-AEGANは、様々な線量還元因子による最先端の合成法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2023-10-24T06:43:56Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - TriDo-Former: A Triple-Domain Transformer for Direct PET Reconstruction
from Low-Dose Sinograms [45.24575167909925]
TriDoFormerは、シングラム、画像、周波数の3つのドメインを結合して直接再構成するトランスフォーマーベースのモデルである。
最先端の手法を質的に、定量的に上回る。
GFPは、周波数領域の周波数成分を調整するための学習可能な周波数フィルタとして機能し、ネットワークに高周波の詳細を復元させる。
論文 参考訳(メタデータ) (2023-08-10T06:20:00Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - A resource-efficient deep learning framework for low-dose brain PET
image reconstruction and analysis [13.713286047709982]
本稿では,L-PET再構成と解析のための資源効率の高いディープラーニングフレームワーク,TransGAN-SDAMを提案する。
トランスGANは高品質なF-PET画像を生成し、SDAMは生成されたF-PETスライス列の空間情報を統合して全脳F-PET画像を生成する。
論文 参考訳(メタデータ) (2022-02-14T08:40:19Z) - Anatomical-Guided Attention Enhances Unsupervised PET Image Denoising
Performance [0.0]
解剖学的情報誘導型注意機構に基づく教師なし3次元PET画像復調手法を提案する。
MR-GDD(MR-GDD)はMR-Guidance画像の空間的詳細と意味的特徴をより効果的に活用する。
論文 参考訳(メタデータ) (2021-09-02T09:27:07Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。