論文の概要: Transformer-based Dual-domain Network for Few-view Dedicated Cardiac
SPECT Image Reconstructions
- arxiv url: http://arxiv.org/abs/2307.09624v2
- Date: Sun, 23 Jul 2023 23:06:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 19:56:01.069971
- Title: Transformer-based Dual-domain Network for Few-view Dedicated Cardiac
SPECT Image Reconstructions
- Title(参考訳): 心筋SPECT画像再構成のためのトランスフォーマーベースデュアルドメインネットワーク
- Authors: Huidong Xie, Bo Zhou, Xiongchao Chen, Xueqi Guo, Stephanie Thorn,
Yi-Hwa Liu, Ge Wang, Albert Sinusas, Chi Liu
- Abstract要約: 高品質な3次元心筋SPECT画像再構成のための新しい3次元トランスフォーマーベースデュアルドメインネットワークTIP-Netを提案する。
本手法は,3次元心筋SPECT画像を直接投影データから再構成することを目的としている。
- 参考スコア(独自算出の注目度): 8.510419245628983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cardiovascular disease (CVD) is the leading cause of death worldwide, and
myocardial perfusion imaging using SPECT has been widely used in the diagnosis
of CVDs. The GE 530/570c dedicated cardiac SPECT scanners adopt a stationary
geometry to simultaneously acquire 19 projections to increase sensitivity and
achieve dynamic imaging. However, the limited amount of angular sampling
negatively affects image quality. Deep learning methods can be implemented to
produce higher-quality images from stationary data. This is essentially a
few-view imaging problem. In this work, we propose a novel 3D transformer-based
dual-domain network, called TIP-Net, for high-quality 3D cardiac SPECT image
reconstructions. Our method aims to first reconstruct 3D cardiac SPECT images
directly from projection data without the iterative reconstruction process by
proposing a customized projection-to-image domain transformer. Then, given its
reconstruction output and the original few-view reconstruction, we further
refine the reconstruction using an image-domain reconstruction network.
Validated by cardiac catheterization images, diagnostic interpretations from
nuclear cardiologists, and defect size quantified by an FDA 510(k)-cleared
clinical software, our method produced images with higher cardiac defect
contrast on human studies compared with previous baseline methods, potentially
enabling high-quality defect visualization using stationary few-view dedicated
cardiac SPECT scanners.
- Abstract(参考訳): 心臓血管疾患(CVD)は世界中で死因の主要な疾患であり, SPECTを用いた心筋灌流像はCVDの診断に広く用いられている。
GE 530/570c専用心筋SPECTスキャナは静止形状を採用し、19個の投射を同時に取得して感度を高め、ダイナミックイメージングを実現する。
しかし、角サンプリングの限られた量は画質に悪影響を及ぼす。
静止データから高品質な画像を生成するディープラーニング手法を実装できる。
これは本質的には数ビューの撮像問題である。
本研究では,高品質3d心筋spect画像再構成のための新しい3dトランスフォーマーベースのデュアルドメインネットワークtip-netを提案する。
本手法は,プロジェクション・ツー・イメージ・ドメイン・トランスフォーマーのカスタマイズにより,投影データから直接3次元SPECT画像を再構成することを目的としている。
そして、その復元出力と元の少数視点再構成を考慮し、画像ドメイン再構築ネットワークを用いて再構成をさらに洗練する。
fda 510(k)-cleared clinical softwareによって定量化された心臓カテーテル画像、核心科医からの診断解釈、および欠陥サイズによって検証された本手法は、ヒト研究において従来の基準法と比較して高い心不全コントラストを有する画像を生成し、静止数ビュー専用心筋spectスキャナを用いて高品質の欠陥可視化を可能にする。
関連論文リスト
- CoCPF: Coordinate-based Continuous Projection Field for Ill-Posed Inverse Problem in Imaging [78.734927709231]
スパース・ビュー・コンピュート・トモグラフィー(SVCT)の再構成は,スパース・サンプリングによるCT画像の取得を目的としている。
暗黙的な神経表現(INR)技術は、不備のため、その分野に「かなりの穴」(すなわち、未モデル化空間)を残し、準最適結果をもたらす可能性がある。
SVCT再構成のためのホールフリー表現場を構築することを目的としたコーディネート型連続射影場(CoCPF)を提案する。
論文 参考訳(メタデータ) (2024-06-21T08:38:30Z) - 3D Vessel Reconstruction from Sparse-View Dynamic DSA Images via Vessel Probability Guided Attenuation Learning [79.60829508459753]
現在の商用デジタルサブトラクション・アンジオグラフィー(DSA)システムは通常、再構築を行うために数百のスキャンビューを要求する。
スパース・ビューDSA画像のダイナミックな血流と不十分な入力は,3次元血管再建作業において重要な課題である。
本稿では,時間に依存しない容器確率場を用いてこの問題を効果的に解くことを提案する。
論文 参考訳(メタデータ) (2024-05-17T11:23:33Z) - SdCT-GAN: Reconstructing CT from Biplanar X-Rays with Self-driven
Generative Adversarial Networks [6.624839896733912]
本稿では,3次元CT画像の再構成のための自己駆動型生成対向ネットワークモデル(SdCT-GAN)を提案する。
識別器に新しいオートエンコーダ構造を導入することにより、画像の詳細により多くの注意を払っている。
LPIPS評価基準は,既存画像よりも微細な輪郭やテクスチャを定量的に評価できる。
論文 参考訳(メタデータ) (2023-09-10T08:16:02Z) - DMCVR: Morphology-Guided Diffusion Model for 3D Cardiac Volume
Reconstruction [33.59945107137013]
現在の心臓MRIによる再建技術は、平面解像度が制限された2Dである。
本稿では,高解像度2次元画像とそれに対応する3次元再構成ボリュームを合成する3次元心容積再構成のための形態誘導拡散モデルDMCVRを提案する。
論文 参考訳(メタデータ) (2023-08-18T00:48:30Z) - Multi-class point cloud completion networks for 3D cardiac anatomy
reconstruction from cine magnetic resonance images [4.1448595037512925]
マルチクラスの心臓解剖学的メッシュを再構築できる新しい完全自動表面再構成パイプラインを提案する。
その鍵となるコンポーネントは、マルチクラスポイントクラウド補完ネットワーク(PCCN)である。
論文 参考訳(メタデータ) (2023-07-17T14:52:52Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Joint Denoising and Few-angle Reconstruction for Low-dose Cardiac SPECT
Using a Dual-domain Iterative Network with Adaptive Data Consistency [12.1851913514097]
心筋SPECTの低線量および小角投射からの両端端関節脱生と再建のための二重領域反復ネットワークを提案する。
臨床MPIデータを用いた実験により,提案手法は既存の画像領域,投影領域,二重領域技術よりも優れていた。
論文 参考訳(メタデータ) (2023-05-17T16:09:49Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - REGAS: REspiratory-GAted Synthesis of Views for Multi-Phase CBCT
Reconstruction from a single 3D CBCT Acquisition [75.64791080418162]
REGASは、アンダーサンプドトモグラフィビューを合成し、再構成画像中のアーティファクトのエイリアスを緩和する自己教師手法を提案する。
高解像度4Dデータ上でのディープニューラルネットワークの大規模なメモリコストに対処するため、REGASは分散して微分可能なフォワードプロジェクションを可能にする新しいレイパス変換(RPT)を導入した。
論文 参考訳(メタデータ) (2022-08-17T03:42:19Z) - Efficient Pix2Vox++ for 3D Cardiac Reconstruction from 2D echo views [0.6524460254566904]
3Dで心臓解剖を再構築することで、新しいバイオマーカーの発見が可能になる。
ほとんどの超音波システムは2Dイメージング機能しか持たない。
本稿では,2次元標準心磁図から3次元解剖の再構築を行うパイプラインを提案する。
論文 参考訳(メタデータ) (2022-07-27T10:05:46Z) - Tattoo tomography: Freehand 3D photoacoustic image reconstruction with
an optical pattern [49.240017254888336]
光音響トモグラフィ(PAT)は、形態学的および機能的組織特性の両方を解決することができる新しいイメージング技術である。
現在の欠点は、従来の2Dプローブによって提供される視野の制限である。
本研究では,外部追跡システムを必要としないPATデータの3次元再構成手法を提案する。
論文 参考訳(メタデータ) (2020-11-10T09:27:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。