論文の概要: FlowNet-PET: Unsupervised Learning to Perform Respiratory Motion
Correction in PET Imaging
- arxiv url: http://arxiv.org/abs/2205.14147v1
- Date: Fri, 27 May 2022 18:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 05:57:24.957732
- Title: FlowNet-PET: Unsupervised Learning to Perform Respiratory Motion
Correction in PET Imaging
- Title(参考訳): FlowNet-PET:PET画像における呼吸運動補正のための教師なし学習
- Authors: Teaghan O'Briain, Carlos Uribe, Kwang Moo Yi, Jonas Teuwen, Ioannis
Sechopoulos, and Magdalena Bazalova-Carter
- Abstract要約: FlowNet-PETは、PET画像における呼吸運動を補正するための解釈可能で教師なしのディープラーニング技術である。
概念実証として,FlowNet-PETを擬人化デジタルファントムデータに適用した。
- 参考スコア(独自算出の注目度): 11.451728125088113
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: To correct for breathing motion in PET imaging, an interpretable and
unsupervised deep learning technique, FlowNet-PET, was constructed. The network
was trained to predict the optical flow between two PET frames from different
breathing amplitude ranges. As a result, the trained model groups different
retrospectively-gated PET images together into a motion-corrected single bin,
providing a final image with similar counting statistics as a non-gated image,
but without the blurring effects that were initially observed. As a
proof-of-concept, FlowNet-PET was applied to anthropomorphic digital phantom
data, which provided the possibility to design robust metrics to quantify the
corrections. When comparing the predicted optical flows to the ground truths,
the median absolute error was found to be smaller than the pixel and slice
widths, even for the phantom with a diaphragm movement of 21 mm. The
improvements were illustrated by comparing against images without motion and
computing the intersection over union (IoU) of the tumors as well as the
enclosed activity and coefficient of variation (CoV) within the no-motion tumor
volume before and after the corrections were applied. The average relative
improvements provided by the network were 54%, 90%, and 76% for the IoU, total
activity, and CoV, respectively. The results were then compared against the
conventional retrospective phase binning approach. FlowNet-PET achieved similar
results as retrospective binning, but only required one sixth of the scan
duration. The code and data used for training and analysis has been made
publicly available (https://github.com/teaghan/FlowNet_PET).
- Abstract(参考訳): PET画像における呼吸運動の補正のために,解釈可能で教師なしの深層学習技術であるFlowNet-PETを構築した。
このネットワークは、異なる呼吸振幅範囲から2つのPETフレーム間の光の流れを予測するために訓練された。
その結果、トレーニングされたモデルでは、振り返り式PET画像から動き補正された単一ビンにグループ化され、非ゲート画像と類似のカウント統計を持つ最終画像が得られたが、当初観察されたぼやけた効果は得られなかった。
概念実証として、flownet-petは擬人化されたデジタルファントムデータに適用され、補正を定量化するために堅牢なメトリクスを設計することができた。
予測された光流と地上の真実とを比較すると、中央の絶対誤差は画素やスライス幅よりも小さく、ファントムでは横隔膜運動が21mmであった。
この改善は,運動のない画像と比較し,腫瘍の結合(iou)上の交点を計算し,補正前後の非運動腫瘍容積内における閉鎖活性および変動係数(cov)を算出した。
ネットワークによって提供される平均的な相対的な改善は、iou、total activity、covのそれぞれ54%、90%、および76%であった。
結果は、従来のふりかえりフェーズのバイナリアプローチと比較された。
FlowNet-PETはリフレクションバイニングと同様の結果を得たが、スキャン期間の6分の1しか必要なかった。
トレーニングと分析に使用されるコードとデータが公開されている(https://github.com/teaghan/FlowNet_PET)。
関連論文リスト
- From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - Two-Phase Multi-Dose-Level PET Image Reconstruction with Dose Level Awareness [43.45142393436787]
線量レベルの認識が可能な新しい二相多段PET再構成アルゴリズムを設計する。
事前学習フェーズは、きめ細かい識別特徴と効果的な意味表現の両方を探索するために考案された。
SPET予測フェーズは、事前学習した線量レベルを利用した粗い予測ネットワークを採用して予備結果を生成する。
論文 参考訳(メタデータ) (2024-04-02T01:57:08Z) - PET Tracer Conversion among Brain PET via Variable Augmented Invertible
Network [8.895830601854534]
画像投影のためのトレーサ変換可逆ニューラルネットワーク(TC-INN)を開発し,FDG画像を深層学習によりDOPA画像にマッピングする。
実験の結果,FDGとDOPAのマッピングでは優れた生成能を示し,PETトレーサ変換はトレーサの限られた応用において大きな可能性を示唆した。
論文 参考訳(メタデータ) (2023-11-01T12:04:33Z) - Score-Based Generative Models for PET Image Reconstruction [38.72868748574543]
本稿では,PETによるスコアベース生成モデルの適応について提案する。
提案するフレームワークは, 2D PET と 3D PET の両方に対して開発された。
また,磁気共鳴画像を用いたガイド再構成の拡張も提供する。
論文 参考訳(メタデータ) (2023-08-27T19:43:43Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - DopUS-Net: Quality-Aware Robotic Ultrasound Imaging based on Doppler
Signal [48.97719097435527]
DopUS-Netはドップラー画像とBモード画像を組み合わせることで、小血管のセグメンテーション精度と堅牢性を高める。
動脈再同定モジュールは、リアルタイムセグメンテーション結果を質的に評価し、拡張ドップラー画像に対するプローブポーズを自動的に最適化する。
論文 参考訳(メタデータ) (2023-05-15T18:19:29Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - Direct Reconstruction of Linear Parametric Images from Dynamic PET Using
Nonlocal Deep Image Prior [13.747210115485487]
PETシングラムからパラメトリック画像を直接推定する直接再構成法が開発されている。
受信回数が限られているため、信号対雑音比(SNR)と直接再構成フレームワークによって生成されたパラメトリック画像の解像度は依然として限られている。
近年,多数の高品質なトレーニングラベルが利用可能である場合に,医用画像復調・復調に教師付き深層学習法がうまく応用されている。
論文 参考訳(メタデータ) (2021-06-18T21:30:22Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。