論文の概要: S3PET: Semi-supervised Standard-dose PET Image Reconstruction via Dose-aware Token Swap
- arxiv url: http://arxiv.org/abs/2407.20878v1
- Date: Tue, 30 Jul 2024 14:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 16:50:19.903910
- Title: S3PET: Semi-supervised Standard-dose PET Image Reconstruction via Dose-aware Token Swap
- Title(参考訳): S3PET:ドーズ・アウェア・トケン・スワップによる半教師付き標準線量PET画像再構成
- Authors: Jiaqi Cui, Pinxian Zeng, Yuanyuan Xu, Xi Wu, Jiliu Zhou, Yan Wang,
- Abstract要約: そこで本稿では,S3PETとS3PETを併用した2段階のSPET再構成フレームワークを提案する。
我々のS3PETは、未確認画像から表現を抽出するための教師なし事前訓練段階(Stage I)と、LPET-to-SPET再構成を実現するための監督付き線量認識再建段階(Stage II)を含む。
- 参考スコア(独自算出の注目度): 11.13611856305595
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To acquire high-quality positron emission tomography (PET) images while reducing the radiation tracer dose, numerous efforts have been devoted to reconstructing standard-dose PET (SPET) images from low-dose PET (LPET). However, the success of current fully-supervised approaches relies on abundant paired LPET and SPET images, which are often unavailable in clinic. Moreover, these methods often mix the dose-invariant content with dose level-related dose-specific details during reconstruction, resulting in distorted images. To alleviate these problems, in this paper, we propose a two-stage Semi-Supervised SPET reconstruction framework, namely S3PET, to accommodate the training of abundant unpaired and limited paired SPET and LPET images. Our S3PET involves an un-supervised pre-training stage (Stage I) to extract representations from unpaired images, and a supervised dose-aware reconstruction stage (Stage II) to achieve LPET-to-SPET reconstruction by transferring the dose-specific knowledge between paired images. Specifically, in stage I, two independent dose-specific masked autoencoders (DsMAEs) are adopted to comprehensively understand the unpaired SPET and LPET images. Then, in Stage II, the pre-trained DsMAEs are further finetuned using paired images. To prevent distortions in both content and details, we introduce two elaborate modules, i.e., a dose knowledge decouple module to disentangle the respective dose-specific and dose-invariant knowledge of LPET and SPET, and a dose-specific knowledge learning module to transfer the dose-specific information from SPET to LPET, thereby achieving high-quality SPET reconstruction from LPET images. Experiments on two datasets demonstrate that our S3PET achieves state-of-the-art performance quantitatively and qualitatively.
- Abstract(参考訳): 放射線トレーサー線量低減を図り,高画質ポジトロンエミッショントモグラフィ(PET)画像を得るために,低線量PET(LPET)画像から標準線量PET(SPET)画像の再構成に多くの努力が注がれている。
しかし、現在完全に監督されているアプローチの成功は、多量のLPETとSPET画像に依存しており、クリニックでは利用できないことが多い。
さらに、これらの方法では、再構成中に線量不変量と線量レベルの線量特異的な詳細を混合し、歪んだ画像になることが多い。
これらの問題を緩和するために,本稿では,S3PETと呼ばれる2段階のセミスーパービジョンSPET再構成フレームワークを提案する。
我々のS3PETは、未確認画像から表現を抽出するための教師なし事前訓練段階(Stage I)と、LPETからSPETへの再構成を実現するための教師付き線量認識再建段階(Stage II)とを含む。
具体的には、第1段階において、2つの独立した線量特異的マスク付きオートエンコーダ(DsMAEs)を用いて、未使用のSPETおよびLCP画像の包括的理解を行う。
そして、ステージIIでは、事前訓練されたDsMAEをペア画像によりさらに微調整する。
内容と詳細の両方の歪みを防止するため, LPET と SPET の各々の用量特異的および用量不変知識を分離する用量知識分離モジュールと, SPET から LPET へ用量固有情報を転送する用量固有知識学習モジュールという2つの精巧なモジュールを導入し, LPET 画像から高品質な SPET 再構成を実現する。
2つのデータセットの実験により、我々のS3PETは最先端の性能を定量的に定性的に達成することを示した。
関連論文リスト
- Two-Phase Multi-Dose-Level PET Image Reconstruction with Dose Level Awareness [43.45142393436787]
線量レベルの認識が可能な新しい二相多段PET再構成アルゴリズムを設計する。
事前学習フェーズは、きめ細かい識別特徴と効果的な意味表現の両方を探索するために考案された。
SPET予測フェーズは、事前学習した線量レベルを利用した粗い予測ネットワークを採用して予備結果を生成する。
論文 参考訳(メタデータ) (2024-04-02T01:57:08Z) - Image2Points:A 3D Point-based Context Clusters GAN for High-Quality PET
Image Reconstruction [47.398304117228584]
LPETから高品質なSPET画像を再構成する3DポイントベースのコンテキストクラスタGAN(PCC-GAN)を提案する。
臨床とファントムの両方の実験により、PCC-GANは最先端の再建方法よりも優れています。
論文 参考訳(メタデータ) (2024-02-01T06:47:56Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - TriDo-Former: A Triple-Domain Transformer for Direct PET Reconstruction
from Low-Dose Sinograms [45.24575167909925]
TriDoFormerは、シングラム、画像、周波数の3つのドメインを結合して直接再構成するトランスフォーマーベースのモデルである。
最先端の手法を質的に、定量的に上回る。
GFPは、周波数領域の周波数成分を調整するための学習可能な周波数フィルタとして機能し、ネットワークに高周波の詳細を復元させる。
論文 参考訳(メタデータ) (2023-08-10T06:20:00Z) - A Unified Continual Learning Framework with General Parameter-Efficient
Tuning [56.250772378174446]
「事前学習$rightarrow$ダウンストリーム適応」は、継続学習の新しい機会と課題を提示する。
我々は,PETの1つのインスタンス化としてプロンプトを位置づけ,ラーニング・アキュミュレーション・アンサンブル(LAE)と呼ばれる統一的なCLフレームワークを提案する。
PET(Adapter、LoRA、Prefixなど)は、トレーニング済みのモデルをより少ないパラメータとリソースで下流のタスクに適応させることができる。
論文 参考訳(メタデータ) (2023-03-17T15:52:45Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - Does prior knowledge in the form of multiple low-dose PET images (at
different dose levels) improve standard-dose PET prediction? [0.0]
対応する低線量バージョン(L-PET)から標準PET画像(S-PET)を予測する深層学習法が導入された。
本研究では,複数の低線量PET画像の形で先行知識を活用し,S-PET画像を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-02-22T15:58:32Z) - A resource-efficient deep learning framework for low-dose brain PET
image reconstruction and analysis [13.713286047709982]
本稿では,L-PET再構成と解析のための資源効率の高いディープラーニングフレームワーク,TransGAN-SDAMを提案する。
トランスGANは高品質なF-PET画像を生成し、SDAMは生成されたF-PETスライス列の空間情報を統合して全脳F-PET画像を生成する。
論文 参考訳(メタデータ) (2022-02-14T08:40:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。