論文の概要: Diffusion Transformer Meets Random Masks: An Advanced PET Reconstruction Framework
- arxiv url: http://arxiv.org/abs/2503.08339v1
- Date: Tue, 11 Mar 2025 11:50:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 15:42:53.268665
- Title: Diffusion Transformer Meets Random Masks: An Advanced PET Reconstruction Framework
- Title(参考訳): Diffusion Transformerは、高度なPET再構成フレームワークRandom Masksと出会う
- Authors: Bin Huang, Binzhong He, Yanhan Chen, Zhili Liu, Xinyue Wang, Binxuan Li, Qiegen Liu,
- Abstract要約: 本研究ではDREAM(Diffusion tRansformer mEets rAndom Masks)と呼ばれる高度なPET再建フレームワークを提案する。
我々の知る限りでは、これはマスク機構をシングラム領域と潜在空間の両方に統合する最初の試みである。
実験の結果,DREAMは再建PET画像の全体的な品質を向上するだけでなく,臨床的詳細も保存することが明らかとなった。
- 参考スコア(独自算出の注目度): 11.726122474828065
- License:
- Abstract: Deep learning has significantly advanced PET image re-construction, achieving remarkable improvements in image quality through direct training on sinogram or image data. Traditional methods often utilize masks for inpainting tasks, but their incorporation into PET reconstruction frameworks introduces transformative potential. In this study, we pro-pose an advanced PET reconstruction framework called Diffusion tRansformer mEets rAndom Masks (DREAM). To the best of our knowledge, this is the first work to integrate mask mechanisms into both the sinogram domain and the latent space, pioneering their role in PET reconstruction and demonstrating their ability to enhance reconstruction fidelity and efficiency. The framework employs a high-dimensional stacking approach, transforming masked data from two to three dimensions to expand the solution space and enable the model to capture richer spatial rela-tionships. Additionally, a mask-driven latent space is de-signed to accelerate the diffusion process by leveraging sinogram-driven and mask-driven compact priors, which reduce computational complexity while preserving essen-tial data characteristics. A hierarchical masking strategy is also introduced, guiding the model from focusing on fi-ne-grained local details in the early stages to capturing broader global patterns over time. This progressive ap-proach ensures a balance between detailed feature preservation and comprehensive context understanding. Experimental results demonstrate that DREAM not only improves the overall quality of reconstructed PET images but also preserves critical clinical details, highlighting its potential to advance PET imaging technology. By inte-grating compact priors and hierarchical masking, DREAM offers a promising and efficient avenue for future research and application in PET imaging. The open-source code is available at: https://github.com/yqx7150/DREAM.
- Abstract(参考訳): 深層学習はPET画像再構成を著しく進歩させ, 画像品質の大幅な向上を実現している。
従来の方法ではマスクを塗布作業に利用することが多いが、PET再建フレームワークへの組み込みは変革の可能性をもたらす。
本研究では,DREAM(Diffusion tRansformer mEets rAndom Masks)と呼ばれる高度なPET再建フレームワークを提案する。
我々の知る限りでは、このマスク機構をシノグラム領域と潜伏空間の両方に統合し、PET再建における役割を開拓し、再建の忠実さと効率を高める能力を示す最初の試みである。
このフレームワークは高次元の積み重ね方式を採用し、マスク付きデータを2次元から3次元に変換し、解空間を拡張し、よりリッチな空間的レラオンシップを捕捉できるようにする。
さらに、マスク駆動の潜伏空間をデサインし、シングラム駆動およびマスク駆動のコンパクトな前駆体を利用して拡散過程を加速させる。
階層的なマスキング戦略も導入され、そのモデルが初期段階の微粒な局所的な詳細に集中することから、時間とともにより広いグローバルなパターンを捉えることへと導かれる。
この進歩的なap-proachは、詳細な特徴保存と包括的なコンテキスト理解のバランスを保証する。
実験の結果,DREAMは再建PET画像の全体的な品質を向上するだけでなく,重要な臨床像も保存し,PET画像技術の進歩の可能性を強調した。
DREAMは、コンパクトな先行と階層的なマスキングを推し進めることで、将来の研究とPETイメージングへの応用に有望かつ効率的な道筋を提供する。
オープンソースコードは、https://github.com/yqx7150/DREAMで公開されている。
関連論文リスト
- Multi-Subject Image Synthesis as a Generative Prior for Single-Subject PET Image Reconstruction [40.34650079545031]
信号対雑音比を改良した多彩でリアルな擬似PET画像の合成法を提案する。
単目的PET画像再構成において, 擬似PET画像が生成前駆体としてどのように利用されるかを示す。
論文 参考訳(メタデータ) (2024-12-05T16:40:33Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - TriDo-Former: A Triple-Domain Transformer for Direct PET Reconstruction
from Low-Dose Sinograms [45.24575167909925]
TriDoFormerは、シングラム、画像、周波数の3つのドメインを結合して直接再構成するトランスフォーマーベースのモデルである。
最先端の手法を質的に、定量的に上回る。
GFPは、周波数領域の周波数成分を調整するための学習可能な周波数フィルタとして機能し、ネットワークに高周波の詳細を復元させる。
論文 参考訳(メタデータ) (2023-08-10T06:20:00Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - STPDnet: Spatial-temporal convolutional primal dual network for dynamic
PET image reconstruction [16.47493157003075]
動的PET画像再構成のための時空間畳み込みプライマリネットワーク(STPDnet)を提案する。
PETの物理投影は、ネットワークの反復学習プロセスに埋め込まれる。
実験の結果,提案手法は時間領域と空間領域の両方で大きなノイズを発生させることができることがわかった。
論文 参考訳(メタデータ) (2023-03-08T15:43:15Z) - Fully 3D Implementation of the End-to-end Deep Image Prior-based PET
Image Reconstruction Using Block Iterative Algorithm [0.0]
Deep Image prior (DIP) はPET画像再構成により注目されている。
本稿では, エンドツーエンドDIPベースの完全3次元PET画像再構成手法の実装を初めて試みる。
論文 参考訳(メタデータ) (2022-12-22T16:25:58Z) - MAT: Mask-Aware Transformer for Large Hole Image Inpainting [79.67039090195527]
本稿では, 変圧器と畳み込みの利点を統一する, 大穴塗装の新しいモデルを提案する。
実験では、複数のベンチマークデータセット上で、新しいモデルの最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-29T06:36:17Z) - Direct PET Image Reconstruction Incorporating Deep Image Prior and a
Forward Projection Model [0.0]
畳み込みニューラルネットワーク(CNN)は近年,PET画像再構成において顕著な性能を発揮している。
深層画像前処理を組み込んだ非教師なし直接PET画像再構成手法を提案する。
提案手法は,非教師なしPET画像再構成を実現するために,損失関数付き前方投影モデルを組み込んだ。
論文 参考訳(メタデータ) (2021-09-02T08:07:58Z) - TransRPPG: Remote Photoplethysmography Transformer for 3D Mask Face
Presentation Attack Detection [53.98866801690342]
3次元マスク提示攻撃検出(PAD)は、3次元マスク攻撃から顔認識システムを保護する上で重要な役割を担っている。
ライブ本質表現を効率的に学習するための純粋なrトランス(TransR)フレームワークを提案する。
当社のTransRは軽量で効率的(547Kパラメータと763MOPのみ)で、モバイルレベルのアプリケーションに期待できる。
論文 参考訳(メタデータ) (2021-04-15T12:33:13Z) - TFill: Image Completion via a Transformer-Based Architecture [69.62228639870114]
画像補完を無方向性シーケンス対シーケンス予測タスクとして扱うことを提案する。
トークン表現には,小かつ重複しないRFを持つ制限型CNNを用いる。
第2フェーズでは、可視領域と発生領域の外観整合性を向上させるために、新しい注意認識層(aal)を導入する。
論文 参考訳(メタデータ) (2021-04-02T01:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。