論文の概要: Deep unrolled primal dual network for TOF-PET list-mode image reconstruction
- arxiv url: http://arxiv.org/abs/2410.11148v1
- Date: Tue, 15 Oct 2024 00:17:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:01:14.854907
- Title: Deep unrolled primal dual network for TOF-PET list-mode image reconstruction
- Title(参考訳): TOF-PETリストモード画像再構成のためのDeep Unrolled primal dual network
- Authors: Rui Hu, Chenxu Li, Kun Tian, Jianan Cui, Yunmei Chen, Huafeng Liu,
- Abstract要約: 飛行時間情報(TOF)は、消滅光子の正確な位置データを提供する。
深層学習アルゴリズムはPET画像再構成において有望な結果を示した。
本研究では,TOFPETリストモード再構築のためのディープアンロール型デュアルネットワークを提案する。
- 参考スコア(独自算出の注目度): 8.288813766151279
- License:
- Abstract: Time-of-flight (TOF) information provides more accurate location data for annihilation photons, thereby enhancing the quality of PET reconstruction images and reducing noise. List-mode reconstruction has a significant advantage in handling TOF information. However, current advanced TOF PET list-mode reconstruction algorithms still require improvements when dealing with low-count data. Deep learning algorithms have shown promising results in PET image reconstruction. Nevertheless, the incorporation of TOF information poses significant challenges related to the storage space required by deep learning methods, particularly for the advanced deep unrolled methods. In this study, we propose a deep unrolled primal dual network for TOF-PET list-mode reconstruction. The network is unrolled into multiple phases, with each phase comprising a dual network for list-mode domain updates and a primal network for image domain updates. We utilize CUDA for parallel acceleration and computation of the system matrix for TOF list-mode data, and we adopt a dynamic access strategy to mitigate memory consumption. Reconstructed images of different TOF resolutions and different count levels show that the proposed method outperforms the LM-OSEM, LM-EMTV, LM-SPDHG,LM-SPDHG-TV and FastPET method in both visually and quantitative analysis. These results demonstrate the potential application of deep unrolled methods for TOF-PET list-mode data and show better performance than current mainstream TOF-PET list-mode reconstruction algorithms, providing new insights for the application of deep learning methods in TOF list-mode data. The codes for this work are available at https://github.com/RickHH/LMPDnet
- Abstract(参考訳): 飛行時間(TOF)情報は、消滅光子のより正確な位置データを提供し、PET再構成画像の品質を高め、ノイズを低減する。
リストモード再構築はTOF情報を扱う上で大きな利点がある。
しかし、現在のTOF PETリストモード再構成アルゴリズムでは、ローカウントデータを扱う際にも改善が必要である。
深層学習アルゴリズムはPET画像再構成において有望な結果を示した。
それにもかかわらず、TOF情報の組み入れは、深層学習法、特に高度深層学習法で必要とされる記憶空間に重大な課題をもたらす。
本研究では,TOF-PETリストモード再構築のための深層アンロール型原始二重ネットワークを提案する。
ネットワークは複数のフェーズに展開され、各フェーズはリストモードドメイン更新のためのデュアルネットワークと、画像ドメイン更新のためのプライマリネットワークで構成される。
CUDAをTOFリストモードデータのためのシステム行列の並列高速化と計算に利用し、メモリ消費を軽減するために動的アクセス戦略を採用する。
異なるTOF解像度と異なるカウントレベルの再構成画像から,提案手法は, LM-OSEM, LM-EMTV, LM-SPDHG, LM-SPDHG-TVおよびFastPET法を視覚的, 定量的に比較した。
これらの結果は,TOF-PETリストモードデータに対するディープアンロール法の適用の可能性を示し,現在のTOF-PETリストモード再構成アルゴリズムよりも優れた性能を示し,TOF-PETリストモードデータへのディープラーニング手法の適用に関する新たな知見を提供する。
この作業のコードはhttps://github.com/RickHH/LMPDnetで公開されている。
関連論文リスト
- Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - DULDA: Dual-domain Unsupervised Learned Descent Algorithm for PET image
reconstruction [18.89418916531878]
そこで本研究では,学習された適切なアルゴリズムに基づいて,二重領域の非教師付きPET画像再構成手法を提案する。
具体的には、PET画像再構成問題に対して、学習可能なl2,1ノルムで勾配法をアンロールする。
実験結果から,提案手法の性能を最大予測最大化(MLEM),全変量正規化EM(EM-TV),深部画像優先法(DIP)と比較した。
論文 参考訳(メタデータ) (2023-03-08T15:29:17Z) - PixMIM: Rethinking Pixel Reconstruction in Masked Image Modeling [83.67628239775878]
Masked Image Modeling (MIM) は Masked Autoencoders (MAE) と BEiT の出現によって有望な進歩を遂げた。
本稿では,画素再構成の観点からMIMの基本解析を行う。
我々は,2つの戦略を包含する極めて単純で効果的な方法,weelmethodを提案する。
論文 参考訳(メタデータ) (2023-03-04T13:38:51Z) - LMPDNet: TOF-PET list-mode image reconstruction using model-based deep
learning method [17.35248769956761]
リストモードデータからのTOF-PET再構成のための新しいモデルベース深層学習手法LMPDNetを提案する。
実験の結果,提案するLMPDNetは従来のTOF-PETリストモード再構成アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2023-02-21T07:07:29Z) - Degradation-Aware Unfolding Half-Shuffle Transformer for Spectral
Compressive Imaging [142.11622043078867]
圧縮画像と物理マスクからパラメータを推定し,これらのパラメータを用いて各イテレーションを制御する,DAUF(Degradation-Aware Unfolding Framework)を提案する。
HST を DAUF に接続することにより,HSI 再構成のための変換器の深部展開法であるデグレーション・アウェア・アンフォールディング・ハーフシャッフル変換器 (DAUHST) を確立した。
論文 参考訳(メタデータ) (2022-05-20T11:37:44Z) - List-Mode PET Image Reconstruction Using Deep Image Prior [3.6427817678422016]
PET(List-mode positron emission tomography)画像再構成はPETスキャナーにとって重要なツールである。
深層学習はPET画像再構成の品質を高める1つの方法である。
本研究では,Deep image priorと呼ばれる教師なしCNNを用いた新しいPET画像再構成手法を提案する。
論文 参考訳(メタデータ) (2022-04-28T10:44:33Z) - MultiRes-NetVLAD: Augmenting Place Recognition Training with
Low-Resolution Imagery [28.875236694573815]
我々は低解像度画像ピラミッド符号化によるNetVLAD表現学習を強化した。
結果として得られる多重解像度特徴ピラミッドは、VLADを介して1つのコンパクト表現に便利に集約することができる。
基礎となる学習機能テンソルと既存のマルチスケールアプローチを組み合わせることで,ベースライン性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-02-18T11:53:01Z) - Direct PET Image Reconstruction Incorporating Deep Image Prior and a
Forward Projection Model [0.0]
畳み込みニューラルネットワーク(CNN)は近年,PET画像再構成において顕著な性能を発揮している。
深層画像前処理を組み込んだ非教師なし直接PET画像再構成手法を提案する。
提案手法は,非教師なしPET画像再構成を実現するために,損失関数付き前方投影モデルを組み込んだ。
論文 参考訳(メタデータ) (2021-09-02T08:07:58Z) - Polyp-PVT: Polyp Segmentation with Pyramid Vision Transformers [124.01928050651466]
本稿では,Polyp-PVTと呼ばれる新しいタイプのPolypセグメンテーション手法を提案する。
提案モデルであるPolyp-PVTは,特徴の雑音を効果的に抑制し,その表現能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-08-16T07:09:06Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - 3D Human Pose and Shape Regression with Pyramidal Mesh Alignment
Feedback Loop [128.07841893637337]
回帰に基づく手法は最近、単眼画像からヒトのメッシュを再構成する有望な結果を示した。
パラメータの小さな偏差は、推定メッシュと画像のエビデンスの間に顕著な不一致を引き起こす可能性がある。
本稿では,特徴ピラミッドを活用し,予測パラメータを補正するために,ピラミッドメッシュアライメントフィードバック(pymaf)ループを提案する。
論文 参考訳(メタデータ) (2021-03-30T17:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。