論文の概要: Enhancing Privacy: The Utility of Stand-Alone Synthetic CT and MRI for Tumor and Bone Segmentation
- arxiv url: http://arxiv.org/abs/2506.12106v1
- Date: Fri, 13 Jun 2025 08:17:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.196196
- Title: Enhancing Privacy: The Utility of Stand-Alone Synthetic CT and MRI for Tumor and Bone Segmentation
- Title(参考訳): プライバシーの強化: 腫瘍・骨切開のためのスタンドアロン合成CTとMRIの有用性
- Authors: André Ferreira, Kunpeng Xie, Caroline Wilpert, Gustavo Correia, Felix Barajas Ordonez, Tiago Gil Oliveira, Maike Bode, Robert Siepmann, Frank Hölzle, Rainer Röhrig, Jens Kleesiek, Daniel Truhn, Jan Egger, Victor Alves, Behrus Puladi,
- Abstract要約: 頭頸部癌CTと脳グリオーマMRIを2つの大きなデータセットから用いた。
生成逆数ネットワークと拡散モデルを用いて合成データを生成する。
MAE, MS-SSIM, Radiomics and a Visual Turing Test (VTT) を用いて合成データの質を評価する。
- 参考スコア(独自算出の注目度): 2.4345008922715756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI requires extensive datasets, while medical data is subject to high data protection. Anonymization is essential, but poses a challenge for some regions, such as the head, as identifying structures overlap with regions of clinical interest. Synthetic data offers a potential solution, but studies often lack rigorous evaluation of realism and utility. Therefore, we investigate to what extent synthetic data can replace real data in segmentation tasks. We employed head and neck cancer CT scans and brain glioma MRI scans from two large datasets. Synthetic data were generated using generative adversarial networks and diffusion models. We evaluated the quality of the synthetic data using MAE, MS-SSIM, Radiomics and a Visual Turing Test (VTT) performed by 5 radiologists and their usefulness in segmentation tasks using DSC. Radiomics indicates high fidelity of synthetic MRIs, but fall short in producing highly realistic CT tissue, with correlation coefficient of 0.8784 and 0.5461 for MRI and CT tumors, respectively. DSC results indicate limited utility of synthetic data: tumor segmentation achieved DSC=0.064 on CT and 0.834 on MRI, while bone segmentation a mean DSC=0.841. Relation between DSC and correlation is observed, but is limited by the complexity of the task. VTT results show synthetic CTs' utility, but with limited educational applications. Synthetic data can be used independently for the segmentation task, although limited by the complexity of the structures to segment. Advancing generative models to better tolerate heterogeneous inputs and learn subtle details is essential for enhancing their realism and expanding their application potential.
- Abstract(参考訳): AIは広範なデータセットを必要とし、医療データは高いデータ保護を受ける。
匿名化は不可欠であるが、臨床関心の領域と重なる構造を特定するため、頭部などの一部の領域では課題となる。
合成データは潜在的な解決策を提供するが、研究はしばしば現実主義と実用性の厳密な評価を欠いている。
そこで本研究では,セグメンテーションタスクにおいて,合成データが実際のデータを置き換えることができる範囲について検討する。
頭頸部癌CTと脳グリオーマMRIを2つの大きなデータセットから用いた。
生成逆数ネットワークと拡散モデルを用いて合成データを生成する。
MAE, MS-SSIM, Radiomics, Visual Turing Test (VTT) を用いて合成データの品質を評価し, DSCを用いたセグメンテーション作業における有用性を検討した。
放射能は, 合成MRIの忠実度が高いが, 造影CTとCTの相関係数0.8784, 0.5461と, 非常に現実的なCT組織の生成に乏しい。
DSCはCTではDSC=0.064,MRIでは0.834,骨は平均DSC=0.841であった。
DSCと相関関係は観察されるが、タスクの複雑さによって制限される。
VTTは合成CTの有用性を示すが,教育的応用は限られている。
合成データはセグメンテーションタスクには独立して使用できるが、セグメンテーションの複雑さによって制限される。
生成モデルを改良し、不均一な入力を許容し、微妙な詳細を学習することは、それらの現実性を高め、応用可能性を拡張するために不可欠である。
関連論文リスト
- PhaseGen: A Diffusion-Based Approach for Complex-Valued MRI Data Generation [1.683019219727036]
磁気共鳴イメージング(MRI)の生データ(k空間データ)は複雑に評価され、大きさと位相情報の両方を含む。
我々は、大容量画像に条件付けされた合成MRI生データを生成するための、複素数値拡散モデルである$textitPhaseGen$を紹介した。
以上の結果から, 合成位相データによるトレーニングは, 実世界のデータにおける頭蓋骨切断の一般化を著しく向上させることが示された。
論文 参考訳(メタデータ) (2025-04-10T08:44:19Z) - Synthetic Poisoning Attacks: The Impact of Poisoned MRI Image on U-Net Brain Tumor Segmentation [8.955776982854985]
脳腫瘍分離のためのU-Netモデルのロバスト性およびセグメンテーション精度に及ぼす合成MRIデータの影響について検討した。
合成データ汚染の影響を定量化するために、U-Netモデルを段階的に"汚染された"データセットに訓練する。
論文 参考訳(メタデータ) (2025-02-06T07:21:19Z) - ContextMRI: Enhancing Compressed Sensing MRI through Metadata Conditioning [51.26601171361753]
本稿では, 微細なメタデータを再構成プロセスに統合したMRI用テキスト条件拡散モデルであるContextMRIを提案する。
メタデータの忠実度はスライス位置やコントラストから患者年齢、性別、病理まで増加し、体系的に再構築性能が向上することを示す。
論文 参考訳(メタデータ) (2025-01-08T05:15:43Z) - MRGen: Segmentation Data Engine For Underrepresented MRI Modalities [59.61465292965639]
稀ながら臨床的に重要な画像モダリティのための医用画像分割モデルの訓練は、注釈付きデータの不足により困難である。
本稿では、生成モデルを利用してトレーニングデータを合成し、未表現のモダリティに対するセグメンテーションモデルを訓練する。
論文 参考訳(メタデータ) (2024-12-04T16:34:22Z) - Towards Synergistic Deep Learning Models for Volumetric Cirrhotic Liver Segmentation in MRIs [1.5228650878164722]
世界的死亡の主な原因である肝硬変は、効果的な疾患モニタリングと治療計画のためにROIを正確に区分する必要がある。
既存のセグメンテーションモデルは、複雑な機能インタラクションをキャプチャして、さまざまなデータセットをまたいだ一般化に失敗することが多い。
本稿では、補間潜在空間を拡張的特徴相互作用モデリングに活用する新しい相乗論的理論を提案する。
論文 参考訳(メタデータ) (2024-08-08T14:41:32Z) - Synthetically Enhanced: Unveiling Synthetic Data's Potential in Medical Imaging Research [4.475998415951477]
Generative AIは、合成画像を生成するための有望なアプローチを提供し、データセットの多様性を向上する。
本研究では, 医用画像研究の性能と一般化性に及ぼす合成データ補充の影響について検討した。
論文 参考訳(メタデータ) (2023-11-15T21:58:01Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - Robust machine learning segmentation for large-scale analysis of
heterogeneous clinical brain MRI datasets [1.0499611180329802]
異種臨床データセットの堅牢な解析を可能にするAIセグメンテーションスイートであるSynthSeg+を提案する。
具体的には、全脳セグメンテーションに加えて、SynthSeg+は皮質パーセレーション、頭蓋内体積推定、欠陥セグメンテーションの自動検出も行う。
われわれはSynthSeg+を14,000スキャンの老化研究を含む7つの実験で実証し、より高品質なデータで観測された萎縮パターンを正確に再現した。
論文 参考訳(メタデータ) (2022-09-05T16:09:24Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。