論文の概要: Anatomically-Controllable Medical Image Generation with
Segmentation-Guided Diffusion Models
- arxiv url: http://arxiv.org/abs/2402.05210v3
- Date: Mon, 11 Mar 2024 17:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 14:22:56.181031
- Title: Anatomically-Controllable Medical Image Generation with
Segmentation-Guided Diffusion Models
- Title(参考訳): セグメンテーション誘導拡散モデルを用いた解剖学的制御可能な医用画像生成
- Authors: Nicholas Konz, Yuwen Chen, Haoyu Dong, Maciej A. Mazurowski
- Abstract要約: 解剖学的に制御可能な医用画像生成を支援する拡散モデルに基づく手法を提案する。
また, ランダムマスクアブレーショントレーニングアルゴリズムを導入し, 解剖学的制約の組合せの条件付けを可能にする。
- 参考スコア(独自算出の注目度): 12.929806513123673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have enabled remarkably high-quality medical image
generation, yet it is challenging to enforce anatomical constraints in
generated images. This hampers many useful applications, including
pre-registered image generation, counterfactual scenarios, and others. To this
end, we propose a diffusion model-based method that supports
anatomically-controllable medical image generation, by following a multi-class
anatomical segmentation mask at each sampling step. We additionally introduce a
random mask ablation training algorithm to enable conditioning on a selected
combination of anatomical constraints while allowing flexibility in other
anatomical areas. We compare our model ("Seg-Diff") to existing methods on
breast MRI and abdominal/neck-to-pelvis CT datasets with a wide range of
anatomical objects. Results show that it reaches a new state-of-the-art in the
faithfulness of generated images to input anatomical masks on both datasets,
and is on par for general anatomical realism. Finally, our model also enjoys
the extra benefit of being able to adjust the anatomical similarity of
generated images to real images of choice through interpolation in its latent
space.
- Abstract(参考訳): 拡散モデルは極めて高品質な医用画像生成を可能にしているが、生成された画像に解剖学的制約を課すことは困難である。
これは、事前登録された画像生成、偽のシナリオなど、多くの有用なアプリケーションを妨げる。
そこで本研究では,マルチクラス解剖学的セグメンテーションマスクをサンプリングステップ毎に追従することにより,解剖学的に制御可能な医用画像生成を支援する拡散モデルに基づく手法を提案する。
また,他の解剖学的領域の柔軟性を保ちつつ,選択された解剖的制約の組み合わせを条件づけ可能なランダムマスクアブレーショントレーニングアルゴリズムも導入した。
胸部MRIや腹部・頸部CTデータセットの既存手法と,幅広い解剖学的対象のモデル(Seg-Diff)を比較した。
その結果、生成された画像の忠実性が向上し、両方のデータセットに解剖学的マスクが入力され、一般的な解剖学的実在論に匹敵することが分かった。
最後に,本モデルでは,潜在空間における補間により,生成した画像の解剖学的類似性を実際の画像に調整できるという付加的な利点も享受している。
関連論文リスト
- Multi-Conditioned Denoising Diffusion Probabilistic Model (mDDPM) for Medical Image Synthesis [22.0080610434872]
アノテーションを用いた合成画像の制御生成フレームワークを提案する。
本手法は, 解剖学的に忠実に表現できる, 注記式肺CT画像を作成することができることを示す。
本実験は, この自然の制御された生成フレームワークが, ほぼすべての最先端画像生成モデルを超えることを実証した。
論文 参考訳(メタデータ) (2024-09-07T01:19:02Z) - End-to-end autoencoding architecture for the simultaneous generation of
medical images and corresponding segmentation masks [3.1133049660590615]
ハミルトン変分オートエンコーダ(HVAE)に基づくエンドツーエンドアーキテクチャを提案する。
従来の変分オートエンコーダ(VAE)と比較して後部分布近似が向上する。
本手法は, 生成的逆境条件より優れ, 画像品質の向上を示す。
論文 参考訳(メタデータ) (2023-11-17T11:56:53Z) - Introducing Shape Prior Module in Diffusion Model for Medical Image
Segmentation [7.7545714516743045]
拡散確率モデル(DDPM)を利用したVerseDiff-UNetというエンドツーエンドフレームワークを提案する。
我々のアプローチは拡散モデルを標準のU字型アーキテクチャに統合する。
本手法はX線画像から得られた脊椎画像の1つのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2023-09-12T03:05:00Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images [39.94162291765236]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - MedSegDiff-V2: Diffusion based Medical Image Segmentation with
Transformer [53.575573940055335]
我々は、MedSegDiff-V2と呼ばれるトランスフォーマーベースの拡散フレームワークを提案する。
画像の異なる20種類の画像分割作業において,その有効性を検証する。
論文 参考訳(メタデータ) (2023-01-19T03:42:36Z) - Improving anatomical plausibility in medical image segmentation via
hybrid graph neural networks: applications to chest x-ray analysis [3.3382651833270587]
我々は、画像特徴符号化とグラフ畳み込みニューラルネットワーク(GCNN)の標準畳み込みを利用して、解剖学的構造の可塑性表現を復号するエンコーダデコーダニューラルアーキテクチャであるHybridGNetを紹介する。
新たなイメージ・ツー・グラフ・スキップ接続層により、標準的な畳み込みブロックからGCNNブロックへローカライズされた機能が流れ、セグメンテーションの精度が向上することを示す。
論文 参考訳(メタデータ) (2022-03-21T13:37:23Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。