論文の概要: Structure-Guided MR-to-CT Synthesis with Spatial and Semantic Alignments for Attenuation Correction of Whole-Body PET/MR Imaging
- arxiv url: http://arxiv.org/abs/2411.17488v1
- Date: Tue, 26 Nov 2024 14:57:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:31:15.955826
- Title: Structure-Guided MR-to-CT Synthesis with Spatial and Semantic Alignments for Attenuation Correction of Whole-Body PET/MR Imaging
- Title(参考訳): 全体PET/MR画像の減衰補正のための空間的および意味的アライメントを用いた構造誘導MR-CT合成
- Authors: Jiaxu Zheng, Zhenrong Shen, Lichi Zhang, Qun Chen,
- Abstract要約: 深層学習に基づくMR-to-CT合成は、組織の電子密度を推定し、全身PET/MRイメージングにおけるPET減衰補正を容易にする。
本稿では,これらの課題に対処する3つの新しいモジュールからなるMR-to-CT合成フレームワークを提案する。
提案した全身MR-to-CTフレームワークが視覚的に可視かつ意味的にリアルなCT画像を生成することを実証するための広範な実験を行い、PET減衰補正におけるその有用性を検証する。
- 参考スコア(独自算出の注目度): 2.21038351344962
- License:
- Abstract: Deep-learning-based MR-to-CT synthesis can estimate the electron density of tissues, thereby facilitating PET attenuation correction in whole-body PET/MR imaging. However, whole-body MR-to-CT synthesis faces several challenges including the issue of spatial misalignment and the complexity of intensity mapping, primarily due to the variety of tissues and organs throughout the whole body. Here we propose a novel whole-body MR-to-CT synthesis framework, which consists of three novel modules to tackle these challenges: (1) Structure-Guided Synthesis module leverages structure-guided attention gates to enhance synthetic image quality by diminishing unnecessary contours of soft tissues; (2) Spatial Alignment module yields precise registration between paired MR and CT images by taking into account the impacts of tissue volumes and respiratory movements, thus providing well-aligned ground-truth CT images during training; (3) Semantic Alignment module utilizes contrastive learning to constrain organ-related semantic information, thereby ensuring the semantic authenticity of synthetic CT images.We conduct extensive experiments to demonstrate that the proposed whole-body MR-to-CT framework can produce visually plausible and semantically realistic CT images, and validate its utility in PET attenuation correction.
- Abstract(参考訳): 深層学習に基づくMR-to-CT合成は、組織の電子密度を推定し、全身PET/MRイメージングにおけるPET減衰補正を容易にする。
しかし、全身MR-CT合成は、空間的不整合の問題や強度マッピングの複雑さなど、主に全身の組織や臓器の多様性のために、いくつかの課題に直面している。
本稿では,(1)構造誘導合成モジュールが,軟組織の不必要な輪郭を減らして合成画像の質を高めるために,構造誘導合成モジュールを利用する,(2)空間配位モジュールは,組織体積と呼吸運動の影響を考慮し,一対のMR画像とCT画像の正確な登録を得られる,(3)組織間CT画像の整合性の向上,(3)セマンティック配位モジュールは,臓器関連意味情報を拘束するコントラスト学習を利用して,合成CT画像の意味的信頼性を確保する,という3つの課題に対処する,新しいMR画像合成フレームワークを提案する。
関連論文リスト
- Two-Stage Approach for Brain MR Image Synthesis: 2D Image Synthesis and 3D Refinement [1.5683566370372715]
腫瘍像を正確に表現することで,欠失モードの特異な特徴を反映したMRI画像の合成が重要である。
本稿では,2次元スライスからMR画像を合成する2段階の手法を提案する。
論文 参考訳(メタデータ) (2024-10-14T08:21:08Z) - Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - Neurovascular Segmentation in sOCT with Deep Learning and Synthetic Training Data [4.5276169699857505]
本研究は, 連続断面光コヒーレンストモグラフィー画像における神経血管セグメンテーションのための合成エンジンについて述べる。
提案手法は,ラベル合成とラベル・ツー・イメージ変換の2段階からなる。
前者の有効性を,より現実的なトレーニングラベルの集合と比較し,後者を合成ノイズと人工物モデルのアブレーション研究により実証した。
論文 参考訳(メタデータ) (2024-07-01T16:09:07Z) - Functional Imaging Constrained Diffusion for Brain PET Synthesis from Structural MRI [5.190302448685122]
新しい制約拡散モデル (CDM) を用いて, 入力条件として2組構造MRIを用いた3次元脳PET画像合成のためのフレームワークを提案する。
FICDはPETにノイズを導入し、CDMで徐々に除去する。
CDMは、各denoized PETと基底真理との間のボクセルワイドアライメントを確保するために、機能的イメージング制約を導入して、denoized PETを予測することを学ぶ。
論文 参考訳(メタデータ) (2024-05-03T22:33:46Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Spatial and Modal Optimal Transport for Fast Cross-Modal MRI Reconstruction [54.19448988321891]
本稿では,T1重み付き画像(T1WIs)を補助モダリティとして活用し,T2WIsの取得を高速化するエンド・ツー・エンドのディープラーニングフレームワークを提案する。
最適輸送(OT)を用いてT1WIを整列させてT2WIを合成し、クロスモーダル合成を行う。
再構成されたT2WIと合成されたT2WIがT2画像多様体に近づき、繰り返しが増加することを示す。
論文 参考訳(メタデータ) (2023-05-04T12:20:51Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Unsupervised-learning-based method for chest MRI-CT transformation using
structure constrained unsupervised generative attention networks [0.0]
PET/MRIスキャナは、PETによる代謝情報の同時取得と、MRIを用いた形態情報の取得を容易にする。
PET/MRIは、ガンマ線減衰情報とMRIとの直接的関係がないため、MRIから減衰補正マップを生成する必要がある。
本稿では,非対位画像の変換が可能なGAN(Generative Adversarial Network)に,モダリティ非依存的近傍記述子(MIND)を用いた構造制約を加えることにより,人間のアノテーションを使わずに解剖学的構造変化を最小限に抑える手段を提案する。
論文 参考訳(メタデータ) (2021-06-16T05:22:27Z) - Bidirectional Mapping Generative Adversarial Networks for Brain MR to
PET Synthesis [29.40385887130174]
BMGAN (Bidirectional Mapping Generative Adversarial Networks) と呼ばれる3次元のエンドツーエンド合成ネットワークを提案する。
提案手法は、異なる被験者の多様な脳構造を保存しながら、知覚的にリアルなPET画像を合成することができる。
論文 参考訳(メタデータ) (2020-08-08T09:27:48Z) - Confidence-guided Lesion Mask-based Simultaneous Synthesis of Anatomic
and Molecular MR Images in Patients with Post-treatment Malignant Gliomas [65.64363834322333]
信頼性ガイドSAMR(CG-SAMR)は、病変情報からマルチモーダル解剖学的配列にデータを合成する。
モジュールは中間結果に対する信頼度測定に基づいて合成をガイドする。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-08-06T20:20:22Z) - Lesion Mask-based Simultaneous Synthesis of Anatomic and MolecularMR
Images using a GAN [59.60954255038335]
提案するフレームワークは,ストレッチアウトアップサンプリングモジュール,ブレインアトラスエンコーダ,セグメンテーション一貫性モジュール,マルチスケールラベルワイド識別器から構成される。
実際の臨床データを用いた実験により,提案モデルが最先端の合成法よりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-26T02:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。