論文の概要: FlowNet-PET: Unsupervised Learning to Perform Respiratory Motion
Correction in PET Imaging
- arxiv url: http://arxiv.org/abs/2205.14147v1
- Date: Fri, 27 May 2022 18:18:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-05 05:57:24.957732
- Title: FlowNet-PET: Unsupervised Learning to Perform Respiratory Motion
Correction in PET Imaging
- Title(参考訳): FlowNet-PET:PET画像における呼吸運動補正のための教師なし学習
- Authors: Teaghan O'Briain, Carlos Uribe, Kwang Moo Yi, Jonas Teuwen, Ioannis
Sechopoulos, and Magdalena Bazalova-Carter
- Abstract要約: FlowNet-PETは、PET画像における呼吸運動を補正するための解釈可能で教師なしのディープラーニング技術である。
概念実証として,FlowNet-PETを擬人化デジタルファントムデータに適用した。
- 参考スコア(独自算出の注目度): 11.451728125088113
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: To correct for breathing motion in PET imaging, an interpretable and
unsupervised deep learning technique, FlowNet-PET, was constructed. The network
was trained to predict the optical flow between two PET frames from different
breathing amplitude ranges. As a result, the trained model groups different
retrospectively-gated PET images together into a motion-corrected single bin,
providing a final image with similar counting statistics as a non-gated image,
but without the blurring effects that were initially observed. As a
proof-of-concept, FlowNet-PET was applied to anthropomorphic digital phantom
data, which provided the possibility to design robust metrics to quantify the
corrections. When comparing the predicted optical flows to the ground truths,
the median absolute error was found to be smaller than the pixel and slice
widths, even for the phantom with a diaphragm movement of 21 mm. The
improvements were illustrated by comparing against images without motion and
computing the intersection over union (IoU) of the tumors as well as the
enclosed activity and coefficient of variation (CoV) within the no-motion tumor
volume before and after the corrections were applied. The average relative
improvements provided by the network were 54%, 90%, and 76% for the IoU, total
activity, and CoV, respectively. The results were then compared against the
conventional retrospective phase binning approach. FlowNet-PET achieved similar
results as retrospective binning, but only required one sixth of the scan
duration. The code and data used for training and analysis has been made
publicly available (https://github.com/teaghan/FlowNet_PET).
- Abstract(参考訳): PET画像における呼吸運動の補正のために,解釈可能で教師なしの深層学習技術であるFlowNet-PETを構築した。
このネットワークは、異なる呼吸振幅範囲から2つのPETフレーム間の光の流れを予測するために訓練された。
その結果、トレーニングされたモデルでは、振り返り式PET画像から動き補正された単一ビンにグループ化され、非ゲート画像と類似のカウント統計を持つ最終画像が得られたが、当初観察されたぼやけた効果は得られなかった。
概念実証として、flownet-petは擬人化されたデジタルファントムデータに適用され、補正を定量化するために堅牢なメトリクスを設計することができた。
予測された光流と地上の真実とを比較すると、中央の絶対誤差は画素やスライス幅よりも小さく、ファントムでは横隔膜運動が21mmであった。
この改善は,運動のない画像と比較し,腫瘍の結合(iou)上の交点を計算し,補正前後の非運動腫瘍容積内における閉鎖活性および変動係数(cov)を算出した。
ネットワークによって提供される平均的な相対的な改善は、iou、total activity、covのそれぞれ54%、90%、および76%であった。
結果は、従来のふりかえりフェーズのバイナリアプローチと比較された。
FlowNet-PETはリフレクションバイニングと同様の結果を得たが、スキャン期間の6分の1しか必要なかった。
トレーニングと分析に使用されるコードとデータが公開されている(https://github.com/teaghan/FlowNet_PET)。
関連論文リスト
- PET Tracer Conversion among Brain PET via Variable Augmented Invertible
Network [8.895830601854534]
画像投影のためのトレーサ変換可逆ニューラルネットワーク(TC-INN)を開発し,FDG画像を深層学習によりDOPA画像にマッピングする。
実験の結果,FDGとDOPAのマッピングでは優れた生成能を示し,PETトレーサ変換はトレーサの限られた応用において大きな可能性を示唆した。
論文 参考訳(メタデータ) (2023-11-01T12:04:33Z) - Synthetic CT Generation via Variant Invertible Network for All-digital
Brain PET Attenuation Correction [11.402215536210337]
減衰補正(AC)は, アーティファクトフリーで定量精度の高いポジトロン放射トモグラフィ(PET)画像の生成に不可欠である。
本稿では,脳PET画像における非減衰補正PET画像から,深層学習を用いて連続的に評価されたCT画像を生成するPET AC法を開発した。
論文 参考訳(メタデータ) (2023-10-03T08:38:52Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - TriDo-Former: A Triple-Domain Transformer for Direct PET Reconstruction
from Low-Dose Sinograms [45.24575167909925]
TriDoFormerは、シングラム、画像、周波数の3つのドメインを結合して直接再構成するトランスフォーマーベースのモデルである。
最先端の手法を質的に、定量的に上回る。
GFPは、周波数領域の周波数成分を調整するための学習可能な周波数フィルタとして機能し、ネットワークに高周波の詳細を復元させる。
論文 参考訳(メタデータ) (2023-08-10T06:20:00Z) - DopUS-Net: Quality-Aware Robotic Ultrasound Imaging based on Doppler
Signal [48.97719097435527]
DopUS-Netはドップラー画像とBモード画像を組み合わせることで、小血管のセグメンテーション精度と堅牢性を高める。
動脈再同定モジュールは、リアルタイムセグメンテーション結果を質的に評価し、拡張ドップラー画像に対するプローブポーズを自動的に最適化する。
論文 参考訳(メタデータ) (2023-05-15T18:19:29Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - Direct Reconstruction of Linear Parametric Images from Dynamic PET Using
Nonlocal Deep Image Prior [13.747210115485487]
PETシングラムからパラメトリック画像を直接推定する直接再構成法が開発されている。
受信回数が限られているため、信号対雑音比(SNR)と直接再構成フレームワークによって生成されたパラメトリック画像の解像度は依然として限られている。
近年,多数の高品質なトレーニングラベルが利用可能である場合に,医用画像復調・復調に教師付き深層学習法がうまく応用されている。
論文 参考訳(メタデータ) (2021-06-18T21:30:22Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。