論文の概要: Denoising Diffusions in Latent Space for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2407.12952v1
- Date: Wed, 17 Jul 2024 18:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 19:33:23.308514
- Title: Denoising Diffusions in Latent Space for Medical Image Segmentation
- Title(参考訳): 医用画像分割のための遅延空間における拡散
- Authors: Fahim Ahmed Zaman, Mathews Jacob, Amanda Chang, Kan Liu, Milan Sonka, Xiaodong Wu,
- Abstract要約: 拡散モデル(DPM)は画像生成において顕著な性能を示しており、しばしば他の生成モデルよりも優れている。
医用画像セグメンテーションのための潜在空間で拡散する新しい条件生成モデリングフレームワーク(LDSeg)を提案する。
- 参考スコア(独自算出の注目度): 14.545920180010201
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models (DPMs) have demonstrated remarkable performance in image generation, often times outperforming other generative models. Since their introduction, the powerful noise-to-image denoising pipeline has been extended to various discriminative tasks, including image segmentation. In case of medical imaging, often times the images are large 3D scans, where segmenting one image using DPMs become extremely inefficient due to large memory consumption and time consuming iterative sampling process. In this work, we propose a novel conditional generative modeling framework (LDSeg) that performs diffusion in latent space for medical image segmentation. Our proposed framework leverages the learned inherent low-dimensional latent distribution of the target object shapes and source image embeddings. The conditional diffusion in latent space not only ensures accurate n-D image segmentation for multi-label objects, but also mitigates the major underlying problems of the traditional DPM based segmentation: (1) large memory consumption, (2) time consuming sampling process and (3) unnatural noise injection in forward/reverse process. LDSeg achieved state-of-the-art segmentation accuracy on three medical image datasets with different imaging modalities. Furthermore, we show that our proposed model is significantly more robust to noises, compared to the traditional deterministic segmentation models, which can be potential in solving the domain shift problems in the medical imaging domain. Codes are available at: https://github.com/LDSeg/LDSeg.
- Abstract(参考訳): 拡散モデル(DPM)は画像生成において顕著な性能を示しており、しばしば他の生成モデルよりも優れている。
導入以来、強力なノイズ・ツー・イメージ・デノゲーションパイプラインは、画像セグメンテーションを含む様々な識別タスクに拡張されてきた。
医療画像の場合、しばしば画像は大きな3Dスキャンであり、DPMを用いて1つの画像を分割することは、大きなメモリ消費と反復的なサンプリングプロセスのために非常に非効率になる。
本研究では,医療画像セグメンテーションのための潜在空間に拡散する条件付き生成モデリングフレームワーク(LDSeg)を提案する。
提案手法は,対象物体形状の学習固有の低次元潜時分布と画像埋め込みを利用する。
遅延空間における条件拡散は、マルチラベルオブジェクトに対する正確なn-D画像のセグメンテーションを保証するだけでなく、(1)大きなメモリ消費、(2)サンプリングプロセスの時間消費、(3)フォワード/リバースプロセスにおける不自然なノイズ注入といった従来のDPMベースのセグメンテーションの根本的な問題を緩和する。
LDSegは、異なる画像モダリティを持つ3つの医療画像データセットに対して、最先端のセグメンテーション精度を達成した。
さらに,提案手法は,医用画像領域における領域シフト問題を解く可能性がありうる従来の決定論的セグメンテーションモデルと比較して,ノイズに対してかなり頑健であることを示す。
コードは、https://github.com/LDSeg/LDSeg.comで入手できる。
関連論文リスト
- Unleashing the Potential of the Diffusion Model in Few-shot Semantic Segmentation [56.87049651707208]
セマンティックはインコンテクストタスクへと発展し、一般化的セグメンテーションモデルを評価する上で重要な要素となった。
我々の最初の焦点は、クエリイメージとサポートイメージの相互作用を容易にする方法を理解することであり、その結果、自己注意フレームワーク内のKV融合法が提案される。
そこで我々はDiffewSというシンプルで効果的なフレームワークを構築し,従来の潜在拡散モデルの生成フレームワークを最大限に保持する。
論文 参考訳(メタデータ) (2024-10-03T10:33:49Z) - I-MedSAM: Implicit Medical Image Segmentation with Segment Anything [24.04558900909617]
提案するI-MedSAMは、連続表現とSAMの両方の利点を利用して、クロスドメイン能力と正確な境界線を求める。
トレーニング可能なパラメータが1.6Mしかない提案手法は、離散的および暗黙的を含む既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-28T00:43:52Z) - Promise:Prompt-driven 3D Medical Image Segmentation Using Pretrained
Image Foundation Models [13.08275555017179]
単点プロンプトのみを用いたプロンプト駆動型3次元医用画像分割モデルProMISeを提案する。
今回,大腸癌と膵腫瘍の2つの領域に分布する2つのパブリックデータセットについて検討した。
論文 参考訳(メタデータ) (2023-10-30T16:49:03Z) - Two Approaches to Supervised Image Segmentation [55.616364225463066]
本研究は、深層学習とマルチセットニューロンのアプローチの比較実験を開発する。
ディープラーニングアプローチは、画像セグメンテーションの実行の可能性を確認した。
代替のマルチセット手法では、計算資源をほとんど必要とせずに精度を向上することができた。
論文 参考訳(メタデータ) (2023-07-19T16:42:52Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Conditional Diffusion Models for Weakly Supervised Medical Image
Segmentation [18.956306942099097]
条件拡散モデル(CDM)は、特定の分布の対象となる画像を生成することができる。
我々は,対象対象物の予測マスクを取得するために,CDMに隠されたカテゴリ認識意味情報を利用する。
本手法は,2つの医用画像セグメンテーションデータセット上で,最先端のCAMおよび拡散モデル法より優れる。
論文 参考訳(メタデータ) (2023-06-06T17:29:26Z) - Denoising Diffusion Semantic Segmentation with Mask Prior Modeling [61.73352242029671]
本稿では,従来の識別的アプローチのセマンティックセグメンテーション品質を,デノナイズ拡散生成モデルでモデル化したマスクを用いて改善することを提案する。
市販セグメンタを用いた先行モデルの評価を行い,ADE20KとCityscapesの実験結果から,本手法が競争力のある定量的性能を実現することを示す。
論文 参考訳(メタデータ) (2023-06-02T17:47:01Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - MedSegDiff: Medical Image Segmentation with Diffusion Probabilistic
Model [8.910108260704964]
拡散モデル(DPM)は近年,コンピュータビジョンにおいて最もホットな話題の1つとなっている。
MedSegDiff と名付けた一般的な医用画像分割タスクに対する DPM ベースモデルを提案する。
実験の結果,MedSegDiff は最先端 (SOTA) 手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2022-11-01T17:24:44Z) - Diffusion Models for Implicit Image Segmentation Ensembles [1.444701913511243]
拡散モデルに基づく新しいセマンティックセグメンテーション手法を提案する。
トレーニングとサンプリングの手法を改良することにより,拡散モデルが医用画像の病変分割を行うことができることを示す。
最先端セグメンテーションモデルと比較して,本手法は良好なセグメンテーション結果と有意義な不確実性マップが得られる。
論文 参考訳(メタデータ) (2021-12-06T16:28:15Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。