論文の概要: Fast-MC-PET: A Novel Deep Learning-aided Motion Correction and
Reconstruction Framework for Accelerated PET
- arxiv url: http://arxiv.org/abs/2302.07135v1
- Date: Tue, 14 Feb 2023 16:58:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 15:07:18.472243
- Title: Fast-MC-PET: A Novel Deep Learning-aided Motion Correction and
Reconstruction Framework for Accelerated PET
- Title(参考訳): Fast-MC-PET: 加速PETのための新しい深層学習支援運動補正・再構成フレームワーク
- Authors: Bo Zhou, Yu-Jung Tsai, Jiazhen Zhang, Xueqi Guo, Huidong Xie,
Xiongchao Chen, Tianshun Miao, Yihuan Lu, James S. Duncan, Chi Liu
- Abstract要約: 我々は,Fast-MC-PETと呼ばれる加速PETのための新しい深層学習支援運動補正・再構成フレームワークを提案する。
本フレームワークは,ユニバーサルモーション補正 (UMC) と短時間取得再構成 (SL-Reon) モジュールから構成される。
実験の結果,Fast-MC-PETは7倍加速が可能であり,高画質の再構成画像を生成するのにわずか2分間の取得しかできないことがわかった。
- 参考スコア(独自算出の注目度): 11.433399104403788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Patient motion during PET is inevitable. Its long acquisition time not only
increases the motion and the associated artifacts but also the patient's
discomfort, thus PET acceleration is desirable. However, accelerating PET
acquisition will result in reconstructed images with low SNR, and the image
quality will still be degraded by motion-induced artifacts. Most of the
previous PET motion correction methods are motion type specific that require
motion modeling, thus may fail when multiple types of motion present together.
Also, those methods are customized for standard long acquisition and could not
be directly applied to accelerated PET. To this end, modeling-free universal
motion correction reconstruction for accelerated PET is still highly
under-explored. In this work, we propose a novel deep learning-aided motion
correction and reconstruction framework for accelerated PET, called
Fast-MC-PET. Our framework consists of a universal motion correction (UMC) and
a short-to-long acquisition reconstruction (SL-Reon) module. The UMC enables
modeling-free motion correction by estimating quasi-continuous motion from
ultra-short frame reconstructions and using this information for
motion-compensated reconstruction. Then, the SL-Recon converts the accelerated
UMC image with low counts to a high-quality image with high counts for our
final reconstruction output. Our experimental results on human studies show
that our Fast-MC-PET can enable 7-fold acceleration and use only 2 minutes
acquisition to generate high-quality reconstruction images that
outperform/match previous motion correction reconstruction methods using
standard 15 minutes long acquisition data.
- Abstract(参考訳): PET中の患者の動きは避けられない。
長い取得時間は運動と関連するアーティファクトを増加させるだけでなく、患者の不快感も増すので、PET加速が望ましい。
しかし, PET の獲得が加速すると, SNR の低い画像が再構成され, 画像の画質が低下する。
従来のPETモーション補正法のほとんどは、モーションモデリングを必要とするモーションタイプ固有であり、複数のタイプのモーションが一緒に存在すると失敗する可能性がある。
また、これらの手法は標準的な長期取得用にカスタマイズされており、加速PETに直接適用することはできない。
この目的のために、加速petのモデリングフリーなユニバーサルモーション補正再構成は未検討のままである。
本研究では,Fast-MC-PETと呼ばれる加速PETのための新しいディープラーニング支援運動補正・再構成フレームワークを提案する。
本フレームワークは,ユニバーサルモーション補正 (UMC) と短時間取得再構成 (SL-Reon) モジュールから構成される。
UMCは、超短フレーム再構成から準連続運動を推定し、この情報を用いて動き補償再構成を行う。
そして, SL-Recon は, 高速化された UMC 画像を低い値の高画質画像に変換する。
人体実験の結果,Fast-MC-PETは7倍加速が可能であり,2分間の取得しか行わず,標準的な15分間の取得データを用いた従来の動作補正再構成法よりも優れた画質の再現画像を生成することができた。
関連論文リスト
- UniAnimate: Taming Unified Video Diffusion Models for Consistent Human Image Animation [53.16986875759286]
We present a UniAnimate framework to enable efficient and long-term human video generation。
我々は、姿勢案内やノイズビデオとともに参照画像を共通の特徴空間にマッピングする。
また、ランダムノイズ入力と第1フレーム条件入力をサポートする統一ノイズ入力を提案する。
論文 参考訳(メタデータ) (2024-06-03T10:51:10Z) - ConPET: Continual Parameter-Efficient Tuning for Large Language Models [65.48107393731861]
継続的な学習には、新しいタスクへのモデルの継続的な適応が必要である。
継続性を提案する。
効率的なチューニング(ConPET) - 一般化可能なパラダイム。
大規模言語モデルの連続的なタスク適応。
論文 参考訳(メタデータ) (2023-09-26T08:52:04Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - SceNeRFlow: Time-Consistent Reconstruction of General Dynamic Scenes [75.9110646062442]
我々はSceNeRFlowを提案し、時間的一貫性のある方法で一般的な非剛体シーンを再構築する。
提案手法は,カメラパラメータを入力として,静止カメラからのマルチビューRGBビデオと背景画像を取得する。
実験により,小規模動作のみを扱う先行作業とは異なり,スタジオスケール動作の再構築が可能であることが示された。
論文 参考訳(メタデータ) (2023-08-16T09:50:35Z) - Annealed Score-Based Diffusion Model for MR Motion Artifact Reduction [37.41561581618164]
モーションアーティファクトリダクションは、MRイメージングにおいて重要な研究トピックの1つである。
我々はMRIの動作アーチファクト低減のためのアニール式スコアベース拡散モデルを提案する。
実験により, 提案手法は, シミュレーションおよび生体内動作アーティファクトの両方を効果的に低減することを確認した。
論文 参考訳(メタデータ) (2023-01-08T12:16:08Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Direct Reconstruction of Linear Parametric Images from Dynamic PET Using
Nonlocal Deep Image Prior [13.747210115485487]
PETシングラムからパラメトリック画像を直接推定する直接再構成法が開発されている。
受信回数が限られているため、信号対雑音比(SNR)と直接再構成フレームワークによって生成されたパラメトリック画像の解像度は依然として限られている。
近年,多数の高品質なトレーニングラベルが利用可能である場合に,医用画像復調・復調に教師付き深層学習法がうまく応用されている。
論文 参考訳(メタデータ) (2021-06-18T21:30:22Z) - Clinically Translatable Direct Patlak Reconstruction from Dynamic PET
with Motion Correction Using Convolutional Neural Network [9.949523630885261]
パトラクモデルは18F-FDGダイナミックポジトロン放射トモグラフィ(PET)イメージングで広く用いられている。
本研究では,動的PET画像から高品質な運動補正型直接パトラク画像にマッピングする,データ駆動型フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:51:25Z) - Motion Guided 3D Pose Estimation from Videos [81.14443206968444]
本研究では,2次元ポーズから1次元の人物ポーズ推定を行う問題に対して,運動損失と呼ばれる新たな損失関数を提案する。
運動損失の計算では、ペアワイズ・モーション・エンコーディング(ペアワイズ・モーション・エンコーディング)と呼ばれる単純なキーポイント・モーションの表現が導入された。
UGCN(U-shaped GCN)と呼ばれる新しいグラフ畳み込みネットワークアーキテクチャを設計し,短期および長期の動作情報の両方をキャプチャする。
論文 参考訳(メタデータ) (2020-04-29T06:59:30Z) - FastPET: Near Real-Time PET Reconstruction from Histo-Images Using a
Neural Network [0.0]
本稿では,アーキテクチャ的にシンプルで,メモリ空間の効率の良い,新しい直接再構成畳み込みニューラルネットワークであるFastPETを提案する。
FastPETは、原データのヒストイメージ表現で動作し、3D画像ボリューム67倍の高速な再構成を可能にする。
以上の結果から, 再現は非常に高速であるだけでなく, 画像は反復的再構成よりも高品質で低ノイズであることがわかった。
論文 参考訳(メタデータ) (2020-02-11T20:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。