論文の概要: Denoising diffusion-based MR to CT image translation enables whole spine
vertebral segmentation in 2D and 3D without manual annotations
- arxiv url: http://arxiv.org/abs/2308.09345v1
- Date: Fri, 18 Aug 2023 07:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 14:16:27.621321
- Title: Denoising diffusion-based MR to CT image translation enables whole spine
vertebral segmentation in 2D and 3D without manual annotations
- Title(参考訳): 拡散法MR-CT画像変換による2次元および3次元の脊柱椎間分節の経時的変化
- Authors: Robert Graf, Joachim Schmitt, Sarah Schlaeger, Hendrik Kristian
M\"oller, Vasiliki Sideri-Lampretsa, Anjany Sekuboyina, Sandro Manuel Krieg,
Benedikt Wiestler, Bjoern Menze, Daniel Rueckert, Jan Stefan Kirschke
- Abstract要約: 本研究は,T1wとT2wのMR画像系列をCT/MRの合計263対のCT画像に変換することを含む。
椎骨登録1回あたりの2つのランドマークは、MRIからCTへの画像と画像の変換を可能にし、すべての未経験のアプローチより優れていた。
- 参考スコア(独自算出の注目度): 8.094450260464354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: Automated segmentation of spinal MR images plays a vital role
both scientifically and clinically. However, accurately delineating posterior
spine structures presents challenges.
Methods: This retrospective study, approved by the ethical committee,
involved translating T1w and T2w MR image series into CT images in a total of
n=263 pairs of CT/MR series. Landmark-based registration was performed to align
image pairs. We compared 2D paired (Pix2Pix, denoising diffusion implicit
models (DDIM) image mode, DDIM noise mode) and unpaired (contrastive unpaired
translation, SynDiff) image-to-image translation using "peak signal to noise
ratio" (PSNR) as quality measure. A publicly available segmentation network
segmented the synthesized CT datasets, and Dice scores were evaluated on
in-house test sets and the "MRSpineSeg Challenge" volumes. The 2D findings were
extended to 3D Pix2Pix and DDIM.
Results: 2D paired methods and SynDiff exhibited similar translation
performance and Dice scores on paired data. DDIM image mode achieved the
highest image quality. SynDiff, Pix2Pix, and DDIM image mode demonstrated
similar Dice scores (0.77). For craniocaudal axis rotations, at least two
landmarks per vertebra were required for registration. The 3D translation
outperformed the 2D approach, resulting in improved Dice scores (0.80) and
anatomically accurate segmentations in a higher resolution than the original MR
image.
Conclusion: Two landmarks per vertebra registration enabled paired
image-to-image translation from MR to CT and outperformed all unpaired
approaches. The 3D techniques provided anatomically correct segmentations,
avoiding underprediction of small structures like the spinous process.
- Abstract(参考訳): 背景: 脊髄mr画像の自動分割は, 科学的および臨床的に重要な役割を担っている。
しかし、後方脊柱構造を正確に整列することは困難である。
方法: 倫理委員会が承認した回顧調査では, T1wとT2wのMR画像系列をn=263対のCT/MR画像に翻訳した。
ランドマークベースの登録は画像ペアを調整するために行われた。
我々は,2Dペア画像(Pix2Pix, denoising diffusion implicit model (DDIM) Image mode, DDIM noise mode)と非ペア画像(コントラスト未ペア翻訳, SynDiff)画像から画像への変換を品質指標として比較した。
一般に利用可能なセグメンテーションネットワークは合成ctデータセットをセグメント化し、diceスコアは社内テストセットとmrspinesegチャレンジボリュームで評価された。
3D Pix2PixとDDIMに拡張した。
結果: 2d paired method と syndiff は類似の翻訳性能と dice score を示した。
ddim画像モードは最高画質を達成した。
SynDiff, Pix2Pix, DDIM画像モードも同様のDiceスコア(0.77)を示した。
頭蓋骨軸回転には、登録には少なくとも2つの椎骨のランドマークが必要である。
3D翻訳はDiceスコアの改善(0.80)と解剖学的に高精度なセグメンテーションを元のMR画像よりも高分解能で実現した。
結語: 椎骨登録1回あたりの2つのランドマークは、MRIからCTへの画像・画像の変換を可能にし、全ての未経験のアプローチより優れていた。
3D技術は解剖学的に正しいセグメンテーションを提供し、スピン状過程のような小さな構造の過小評価を避けた。
関連論文リスト
- Slice-Consistent 3D Volumetric Brain CT-to-MRI Translation with 2D Brownian Bridge Diffusion Model [3.4248731707266264]
神経画像では、一般的に、脳のCTはMRIよりも費用効率が高く、アクセスしやすい。
医用画像・画像翻訳(I2I)は有望な解決策である。
本研究は,2次元 DM のみに基づく高品質な3次元医療用 I2I を実現する最初の試みである。
論文 参考訳(メタデータ) (2024-07-06T12:13:36Z) - SDR-Former: A Siamese Dual-Resolution Transformer for Liver Lesion
Classification Using 3D Multi-Phase Imaging [59.78761085714715]
本研究は肝病変分類のための新しいSDR-Formerフレームワークを提案する。
提案フレームワークは2つの臨床データセットに関する総合的な実験を通じて検証された。
科学コミュニティを支援するため,肝病変解析のための多段階MRデータセットを公開しています。
論文 参考訳(メタデータ) (2024-02-27T06:32:56Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - View-Disentangled Transformer for Brain Lesion Detection [50.4918615815066]
より正確な腫瘍検出のためのMRI特徴抽出のための新しいビューディペンタングル変換器を提案する。
まず, 3次元脳スキャンにおいて, 異なる位置の長距離相関を求める。
第二に、トランスフォーマーはスライス機能のスタックを複数の2Dビューとしてモデル化し、これらの機能をビュー・バイ・ビューとして拡張する。
第三に、提案したトランスモジュールをトランスのバックボーンに展開し、脳病変を取り巻く2D領域を効果的に検出する。
論文 参考訳(メタデータ) (2022-09-20T11:58:23Z) - FedMed-ATL: Misaligned Unpaired Brain Image Synthesis via Affine
Transform Loss [58.58979566599889]
脳画像合成のための新しい自己教師型学習(FedMed)を提案する。
アフィン変換損失(ATL)は、プライバシー法に違反することなく、ひどく歪んだ画像を使用するように定式化された。
提案手法は, 極めて不整合かつ不整合なデータ設定下での合成結果の品質の両方において, 高度な性能を示す。
論文 参考訳(メタデータ) (2022-01-29T13:45:39Z) - Bridging the gap between paired and unpaired medical image translation [12.28777883776042]
課題CT$rightarrow$MR と CT$rightarrow$CT の修正ピクセルモデルを導入し,MRI スキャンから生成した MRCAT ペアについて検討した。
MR$rightarrow$CTモデルとCT$rightarrow$MRモデルは、実際のCTを入力として正常に動作する。
論文 参考訳(メタデータ) (2021-10-15T23:15:12Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Convolutional 3D to 2D Patch Conversion for Pixel-wise Glioma
Segmentation in MRI Scans [22.60715394470069]
畳み込み3Dから2次元MRパッチ変換モデルにより,新しい画素ワイドセグメンテーションフレームワークを考案する。
本アーキテクチャでは, 局所スライス特性とグローバルスライス特性を併用して, 中央ボクセルのクラスラベルを推定する。
論文 参考訳(メタデータ) (2020-10-20T20:42:52Z) - Multi-modal segmentation of 3D brain scans using neural networks [0.0]
深部畳み込みニューラルネットワークは、3D MRI(MPRAGE, DWI, FLAIR)とCTスキャンのセグメンテーションのために訓練される。
セグメンテーションの質は、合計27の解剖学的構造に対してディース計量を用いて定量化される。
論文 参考訳(メタデータ) (2020-08-11T09:13:54Z) - Modelling the Distribution of 3D Brain MRI using a 2D Slice VAE [66.63629641650572]
本研究では,2次元スライスVAEとガウスモデルを組み合わせた3次元MR脳の体積分布をモデル化する手法を提案する。
また,本研究では,脳解剖学に適合するセグメンテーションの精度を定量的に評価する新たなボリューム評価手法を提案する。
論文 参考訳(メタデータ) (2020-07-09T13:23:15Z) - A$^3$DSegNet: Anatomy-aware artifact disentanglement and segmentation
network for unpaired segmentation, artifact reduction, and modality
translation [18.500206499468902]
CBCT画像は, ノイズ, 組織コントラストの低下, 金属物の存在により, 品質が低く, 人工物が混入している。
脊椎のアノテーションを付加した、人工物のない高品質なCT画像が豊富に存在する。
CBCT椎体分割モデルの構築には, アノテーションを付加した未確認CT画像が有用である。
論文 参考訳(メタデータ) (2020-01-02T06:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。