論文の概要: Anatomically-Controllable Medical Image Generation with Segmentation-Guided Diffusion Models
- arxiv url: http://arxiv.org/abs/2402.05210v4
- Date: Wed, 19 Jun 2024 21:10:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-22 05:29:03.373266
- Title: Anatomically-Controllable Medical Image Generation with Segmentation-Guided Diffusion Models
- Title(参考訳): 分割誘導拡散モデルを用いた解剖学的に制御可能な医用画像生成
- Authors: Nicholas Konz, Yuwen Chen, Haoyu Dong, Maciej A. Mazurowski,
- Abstract要約: 解剖学的に制御可能な医用画像生成を支援する拡散モデルに基づく手法を提案する。
また, ランダムマスクアブレーショントレーニングアルゴリズムを導入し, 解剖学的制約の組合せの条件付けを可能にする。
SegGuidedDiffは、生成した画像の忠実さを新たな最先端に到達して、解剖学的マスクを入力します。
- 参考スコア(独自算出の注目度): 11.835841459200632
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have enabled remarkably high-quality medical image generation, yet it is challenging to enforce anatomical constraints in generated images. To this end, we propose a diffusion model-based method that supports anatomically-controllable medical image generation, by following a multi-class anatomical segmentation mask at each sampling step. We additionally introduce a random mask ablation training algorithm to enable conditioning on a selected combination of anatomical constraints while allowing flexibility in other anatomical areas. We compare our method ("SegGuidedDiff") to existing methods on breast MRI and abdominal/neck-to-pelvis CT datasets with a wide range of anatomical objects. Results show that our method reaches a new state-of-the-art in the faithfulness of generated images to input anatomical masks on both datasets, and is on par for general anatomical realism. Finally, our model also enjoys the extra benefit of being able to adjust the anatomical similarity of generated images to real images of choice through interpolation in its latent space. SegGuidedDiff has many applications, including cross-modality translation, and the generation of paired or counterfactual data. Our code is available at https://github.com/mazurowski-lab/segmentation-guided-diffusion.
- Abstract(参考訳): 拡散モデルは極めて高品質な医用画像生成を可能にしているが、生成した画像に解剖学的制約を強制することは困難である。
そこで本研究では,解剖学的に制御可能な医用画像生成を支援する拡散モデルに基づく手法を提案する。
また,他の解剖学的領域の柔軟性を確保しつつ,選択した解剖学的制約の組み合わせを条件付けできるランダムマスクアブレーショントレーニングアルゴリズムを導入する。
胸部MRIと腹部・頸部・骨盤CTデータセットを解剖学的対象の広い範囲で比較検討し,SegGuidedDiff法について検討した。
以上の結果から,本手法は両データセットの解剖マスクを入力するために生成した画像の忠実さにおいて新たな最先端に到達し,一般的な解剖リアリズムと同等であることがわかった。
最後に,本モデルでは,潜在空間における補間により,生成した画像の解剖学的類似性を実際の画像に調整できるという付加的な利点も享受している。
SegGuidedDiffには、相互モダリティ変換やペアデータや対物データの生成など、多くのアプリケーションがある。
私たちのコードはhttps://github.com/mazurowski-lab/segmentation-guided-diffusionで公開しています。
関連論文リスト
- Multi-Conditioned Denoising Diffusion Probabilistic Model (mDDPM) for Medical Image Synthesis [22.0080610434872]
アノテーションを用いた合成画像の制御生成フレームワークを提案する。
本手法は, 解剖学的に忠実に表現できる, 注記式肺CT画像を作成することができることを示す。
本実験は, この自然の制御された生成フレームワークが, ほぼすべての最先端画像生成モデルを超えることを実証した。
論文 参考訳(メタデータ) (2024-09-07T01:19:02Z) - End-to-end autoencoding architecture for the simultaneous generation of
medical images and corresponding segmentation masks [3.1133049660590615]
ハミルトン変分オートエンコーダ(HVAE)に基づくエンドツーエンドアーキテクチャを提案する。
従来の変分オートエンコーダ(VAE)と比較して後部分布近似が向上する。
本手法は, 生成的逆境条件より優れ, 画像品質の向上を示す。
論文 参考訳(メタデータ) (2023-11-17T11:56:53Z) - Introducing Shape Prior Module in Diffusion Model for Medical Image
Segmentation [7.7545714516743045]
拡散確率モデル(DDPM)を利用したVerseDiff-UNetというエンドツーエンドフレームワークを提案する。
我々のアプローチは拡散モデルを標準のU字型アーキテクチャに統合する。
本手法はX線画像から得られた脊椎画像の1つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-12T03:05:00Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images [39.94162291765236]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Improving anatomical plausibility in medical image segmentation via
hybrid graph neural networks: applications to chest x-ray analysis [3.3382651833270587]
我々は、画像特徴符号化とグラフ畳み込みニューラルネットワーク(GCNN)の標準畳み込みを利用して、解剖学的構造の可塑性表現を復号するエンコーダデコーダニューラルアーキテクチャであるHybridGNetを紹介する。
新たなイメージ・ツー・グラフ・スキップ接続層により、標準的な畳み込みブロックからGCNNブロックへローカライズされた機能が流れ、セグメンテーションの精度が向上することを示す。
論文 参考訳(メタデータ) (2022-03-21T13:37:23Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。