論文の概要: Brain tumor segmentation using synthetic MR images -- A comparison of
GANs and diffusion models
- arxiv url: http://arxiv.org/abs/2306.02986v2
- Date: Fri, 5 Jan 2024 12:48:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 18:28:05.555432
- Title: Brain tumor segmentation using synthetic MR images -- A comparison of
GANs and diffusion models
- Title(参考訳): 合成MR画像を用いた脳腫瘍のセグメンテーション --GANと拡散モデルの比較-
- Authors: Muhammad Usman Akbar, M{\aa}ns Larsson, Anders Eklund
- Abstract要約: 現在、GAN(Generative Adversarial Network)や拡散モデルのような生成AIモデルは、非常に現実的な合成画像を生成することができる。
合成画像に基づいてトレーニングされたセグメンテーションネットワークは、実画像を用いたトレーニングにおいて、Diceスコアの80%から90%のDiceスコアに達することを示す。
我々の結論は、医用画像の共有は実際の画像の共有に有効な選択肢であるが、さらなる作業が必要であるということだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large annotated datasets are required for training deep learning models, but
in medical imaging data sharing is often complicated due to ethics,
anonymization and data protection legislation. Generative AI models, such as
generative adversarial networks (GANs) and diffusion models, can today produce
very realistic synthetic images, and can potentially facilitate data sharing.
However, in order to share synthetic medical images it must first be
demonstrated that they can be used for training different networks with
acceptable performance. Here, we therefore comprehensively evaluate four GANs
(progressive GAN, StyleGAN 1-3) and a diffusion model for the task of brain
tumor segmentation (using two segmentation networks, U-Net and a Swin
transformer). Our results show that segmentation networks trained on synthetic
images reach Dice scores that are 80% - 90% of Dice scores when training with
real images, but that memorization of the training images can be a problem for
diffusion models if the original dataset is too small. Our conclusion is that
sharing synthetic medical images is a viable option to sharing real images, but
that further work is required. The trained generative models and the generated
synthetic images are shared on AIDA data hub
- Abstract(参考訳): ディープラーニングモデルのトレーニングには大規模な注釈付きデータセットが必要であるが、医療画像データ共有は倫理、匿名化、データ保護法によって複雑になることが多い。
generative adversarial networks (gans) や diffusion models といった生成型aiモデルは、現在非常に現実的な合成画像を生成することができ、データ共有を促進する可能性がある。
しかし、合成医用画像を共有するためには、まず、許容できる性能で異なるネットワークのトレーニングに使用できることを示す必要がある。
そこで我々は4つのGAN(Progressive GAN, StyleGAN 1-3)と脳腫瘍セグメンテーション(U-NetとSwin Transformerの2つのセグメンテーションネットワーク)の課題に対する拡散モデルについて総合的に評価した。
その結果,合成画像上で訓練されたセグメント化ネットワークは,実画像でのトレーニング時のサイコロスコアの80%から90%のサイコロスコアに達するが,元のデータセットが小さすぎると拡散モデルでは,トレーニング画像の記憶が問題となる。
我々の結論は、合成医用画像の共有は実画像の共有に有効な選択肢であるが、さらなる作業が必要であるということである。
学習された生成モデルと生成した合成画像はAIDAデータハブ上で共有される
関連論文リスト
- Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
大規模なデータセットのトレーニングによるスケーリングは、画像生成の品質と忠実度を高め、拡散モデルによる操作を可能にすることが示されている。
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
本研究は,異なる微調整方式と組み合わせた場合,様々なシナリオにおいて顕著な性能向上を示すものである。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Diffusion-Based Approaches in Medical Image Generation and Analysis [0.7834170106487724]
医療画像におけるデータの不足は、プライバシー上の懸念から大きな課題となっている。
オリジナルのデータセットと合成データセット上での畳み込みニューラルネットワーク(CNN)モデルのパフォーマンスに関する疑問が残る。
本研究では,3領域でCNNを訓練するための合成医用画像生成のための拡散モデルの有効性について検討した。
論文 参考訳(メタデータ) (2024-12-22T05:02:05Z) - Evaluating Utility of Memory Efficient Medical Image Generation: A Study on Lung Nodule Segmentation [0.0]
本研究は,合成医用画像を生成するためのメモリ効率のパッチワイド拡散確率モデル(DDPM)を提案する。
本手法は, メモリ制約を効率的に管理しながら, 結節分割による高能率合成画像を生成する。
本手法は,合成データのみに基づくセグメンテーションモデルのトレーニングと,合成画像を用いた実世界のトレーニングデータの拡張の2つのシナリオで評価する。
論文 参考訳(メタデータ) (2024-10-16T13:20:57Z) - MediSyn: A Generalist Text-Guided Latent Diffusion Model For Diverse Medical Image Synthesis [4.541407789437896]
MediSynは6つの専門医と10種類の画像から合成画像を生成することができるテキスト誘導潜在拡散モデルである。
合成画像と実画像との直接比較により,本モデルが新規画像の合成を行い,患者のプライバシを重要視する可能性が確認された。
本研究は,一般画像生成モデルが医学におけるアルゴリズム研究と開発を加速する大きな可能性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-05-16T04:28:44Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Beware of diffusion models for synthesizing medical images -- A comparison with GANs in terms of memorizing brain MRI and chest x-ray images [0.0]
BRATS20, BRATS21, 胸部X線肺炎データセットを用いてStyleGANと拡散モデルの訓練を行い, 脳MRIおよび胸部X線画像の合成を行った。
以上の結果から,拡散モデルは,特に小規模なデータセットにおいて,StyleGANと比較してトレーニングイメージを記憶する可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-12T17:55:40Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - SAG-GAN: Semi-Supervised Attention-Guided GANs for Data Augmentation on
Medical Images [47.35184075381965]
本稿では,GAN(Cycle-Consistency Generative Adversarial Networks)を用いた医用画像生成のためのデータ拡張手法を提案する。
提案モデルでは,正常画像から腫瘍画像を生成することができ,腫瘍画像から正常画像を生成することもできる。
本研究では,従来のデータ拡張手法と合成画像を用いた分類モデルを用いて,実画像を用いた分類モデルを訓練する。
論文 参考訳(メタデータ) (2020-11-15T14:01:24Z) - Image Translation for Medical Image Generation -- Ischemic Stroke
Lesions [0.0]
注釈付き病理を持つ合成データベースは、必要なトレーニングデータを提供することができる。
画像から画像への変換モデルを訓練し、脳卒中病変を伴わない脳の容積の磁気共鳴像を合成する。
臨床例は10例, 50例に過ぎなかったが, 総合的なデータ拡張は有意な改善をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-10-05T09:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。