論文の概要: seg2med: a segmentation-based medical image generation framework using denoising diffusion probabilistic models
- arxiv url: http://arxiv.org/abs/2504.09182v1
- Date: Sat, 12 Apr 2025 11:32:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:49:55.716464
- Title: seg2med: a segmentation-based medical image generation framework using denoising diffusion probabilistic models
- Title(参考訳): セグ2med:拡散確率モデルを用いたセグメンテーションに基づく医用画像生成フレームワーク
- Authors: Zeyu Yang, Zhilin Chen, Yipeng Sun, Anika Strittmatter, Anish Raj, Ahmad Allababidi, Johann S. Rink, Frank G. Zöllner,
- Abstract要約: seg2medは高度な医用画像合成フレームワークである。
これはTotalSegmentatorから解剖学的マスクに条件付けされた高品質な合成医療画像を生成する。
- 参考スコア(独自算出の注目度): 5.92914320764123
- License:
- Abstract: In this study, we present seg2med, an advanced medical image synthesis framework that uses Denoising Diffusion Probabilistic Models (DDPM) to generate high-quality synthetic medical images conditioned on anatomical masks from TotalSegmentator. The framework synthesizes CT and MR images from segmentation masks derived from real patient data and XCAT digital phantoms, achieving a Structural Similarity Index Measure (SSIM) of 0.94 +/- 0.02 for CT and 0.89 +/- 0.04 for MR images compared to ground-truth images of real patients. It also achieves a Feature Similarity Index Measure (FSIM) of 0.78 +/- 0.04 for CT images from XCAT. The generative quality is further supported by a Fr\'echet Inception Distance (FID) of 3.62 for CT image generation. Additionally, seg2med can generate paired CT and MR images with consistent anatomical structures and convert images between CT and MR modalities, achieving SSIM values of 0.91 +/- 0.03 for MR-to-CT and 0.77 +/- 0.04 for CT-to-MR conversion. Despite the limitations of incomplete anatomical details in segmentation masks, the framework shows strong performance in cross-modality synthesis and multimodal imaging. seg2med also demonstrates high anatomical fidelity in CT synthesis, achieving a mean Dice coefficient greater than 0.90 for 11 abdominal organs and greater than 0.80 for 34 organs out of 59 in 58 test cases. The highest Dice of 0.96 +/- 0.01 was recorded for the right scapula. Leveraging the TotalSegmentator toolkit, seg2med enables segmentation mask generation across diverse datasets, supporting applications in clinical imaging, data augmentation, multimodal synthesis, and diagnostic algorithm development.
- Abstract(参考訳): 本研究では,Denoising Diffusion Probabilistic Models (DDPM) を用いて,TotalSegmentator の解剖学的マスクに付加した高品質な医用画像を生成する,高度な医用画像合成フレームワーク seg2med を提案する。
本フレームワークは、実際の患者データとXCATデジタルファントムから抽出されたセグメンテーションマスクからCTおよびMR画像を合成し、CT用構造類似度指標(SSIM)が0.94+/-0.02、MR画像が0.89+/-0.004となる。
また、XCATからのCT画像に対して0.78 +/- 0.04という特徴類似度指数測定(FSIM)も達成している。
生成品質は、CT画像生成用Fr'echet Inception Distance(FID)3.62によりさらに支持される。
さらに、seg2medは、一貫した解剖学的構造を持つペアCTとMR画像を生成し、CTとMRのモダリティの間で画像を変換し、MR-to-CTでは0.91 +/- 0.03、CT-to-MR変換では0.77 +/- 0.04のSSIM値を達成する。
セグメンテーションマスクにおける不完全な解剖学的詳細の制限にもかかわらず、このフレームワークはクロスモダリティ合成とマルチモーダルイメージングにおいて強い性能を示す。
seg2medはCT合成における解剖学的忠実度も高く、11の腹部臓器では0.90以上のDice係数、58の検査例では59の臓器では34の臓器では0.80以上のDice係数を達成している。
最も高いDiceは0.96 +/- 0.01で、右肩甲骨に記録されている。
TotalSegmentatorツールキットを活用することで、seg2medは、さまざまなデータセットにわたるセグメンテーションマスクの生成を可能にし、臨床画像、データ拡張、マルチモーダル合成、診断アルゴリズム開発における応用をサポートする。
関連論文リスト
- Multi-Layer Feature Fusion with Cross-Channel Attention-Based U-Net for Kidney Tumor Segmentation [0.0]
U-Netベースのディープラーニング技術は、自動化された医用画像セグメンテーションのための有望なアプローチとして登場しつつある。
腎腫瘍の診断のためのCTスキャン画像のエンドツーエンド自動セマンティックセマンティックセグメンテーションのための改良されたU-Netモデルを提案する。
論文 参考訳(メタデータ) (2024-10-20T19:02:41Z) - Improved 3D Whole Heart Geometry from Sparse CMR Slices [3.701571763780745]
心臓磁気共鳴法(CMR)とCT法(CT)は、心臓血管疾患の患者を診断するための2つの一般的な非侵襲的画像診断法である。
CMRは通常、複数のスパース2Dスライスを取得し、スライス間には避けられない呼吸運動アーチファクトを持ち、CTは等方性密度データを取得するが、電離放射線を使用する。
スライスシフトアルゴリズム(SSA)、空間変換器ネットワーク(STN)、ラベル変換器ネットワーク(LTN)の組み合わせを検討する。
論文 参考訳(メタデータ) (2024-08-14T13:03:48Z) - TotalSegmentator MRI: Robust Sequence-independent Segmentation of Multiple Anatomic Structures in MRI [59.86827659781022]
nnU-Netモデル(TotalSegmentator)をMRIおよび80原子構造で訓練した。
予測されたセグメンテーションと専門家基準セグメンテーションとの間には,ディススコアが算出され,モデル性能が評価された。
オープンソースで使いやすいモデルは、80構造の自動的で堅牢なセグメンテーションを可能にする。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MRSegmentator: Multi-Modality Segmentation of 40 Classes in MRI and CT [29.48170108608303]
このモデルは、英国バイオバンクの1200個の手動3D軸MRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確な臓器(肺: DSC 0.96, 心臓: DSC 0.94)と解剖学的変化のある臓器(皮膚: DSC 0.96, 腎臓: DSC 0.95)に対して高い精度を示す。
CTとよく似ており、AMOS CTデータではDSC平均0.84$pm$ 0.11となる。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - Minimally Interactive Segmentation of Soft-Tissue Tumors on CT and MRI
using Deep Learning [0.0]
我々は,CTおよびMRIを用いたソフト・タウト・腫瘍(STT)のための,最小限の対話型深層学習に基づくセグメンテーション法を開発した。
この方法は、畳み込みニューラルネットワークの入力として、腫瘍の極端な境界付近で6つの点をクリックする必要がある。
論文 参考訳(メタデータ) (2024-02-12T16:15:28Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - iPhantom: a framework for automated creation of individualized
computational phantoms and its application to CT organ dosimetry [58.943644554192936]
本研究の目的は、患者固有の幻覚やデジタル双眼鏡の自動作成のための新しいフレームワーク、iPhantomを開発し、検証することである。
この枠組みは、個々の患者のCT画像における放射線感受性臓器への放射線線量を評価するために応用される。
iPhantomは、アンカーオルガンのDice similarity Coefficients (DSC) >0.6の精度で全ての臓器の位置を正確に予測し、他のオルガンのDSCは0.3-0.9である。
論文 参考訳(メタデータ) (2020-08-20T01:50:49Z) - Co-Heterogeneous and Adaptive Segmentation from Multi-Source and
Multi-Phase CT Imaging Data: A Study on Pathological Liver and Lesion
Segmentation [48.504790189796836]
我々は,新しいセグメンテーション戦略,コヘテロジネティック・アダプティブセグメンテーション(CHASe)を提案する。
本稿では,外見に基づく半スーパービジョン,マスクに基づく対向ドメイン適応,擬似ラベルを融合した多目的フレームワークを提案する。
CHASeは4.2% sim 9.4%$の範囲で、病理的な肝臓マスクDice-Sorensen係数をさらに改善することができる。
論文 参考訳(メタデータ) (2020-05-27T06:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。