論文の概要: ProGiDiff: Prompt-Guided Diffusion-Based Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2601.16060v1
- Date: Thu, 22 Jan 2026 15:56:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.64063
- Title: ProGiDiff: Prompt-Guided Diffusion-Based Medical Image Segmentation
- Title(参考訳): ProGiDiff: プロンプトガイド付き拡散型医療画像セグメンテーション
- Authors: Yuan Lin, Murong Xu, Marc Hölle, Chinmay Prabhakar, Andreas Maier, Vasileios Belagiannis, Bjoern Menze, Suprosanna Shit,
- Abstract要約: 本稿では,医用画像セグメンテーションのために既存の画像生成モデルを活用するProGiDiffという新しいフレームワークを提案する。
具体的には,イメージコンディショニングに適したカスタムエンコーダを備えた制御ネット型コンディショニング機構を提案する。
CT画像からの臓器の分節化実験は, 従来の方法と比較して高い性能を示し, プリンシパル・イン・ザ・ループ・セッティングの利点を大いに生かしている。
- 参考スコア(独自算出の注目度): 12.964514627034122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Widely adopted medical image segmentation methods, although efficient, are primarily deterministic and remain poorly amenable to natural language prompts. Thus, they lack the capability to estimate multiple proposals, human interaction, and cross-modality adaptation. Recently, text-to-image diffusion models have shown potential to bridge the gap. However, training them from scratch requires a large dataset-a limitation for medical image segmentation. Furthermore, they are often limited to binary segmentation and cannot be conditioned on a natural language prompt. To this end, we propose a novel framework called ProGiDiff that leverages existing image generation models for medical image segmentation purposes. Specifically, we propose a ControlNet-style conditioning mechanism with a custom encoder, suitable for image conditioning, to steer a pre-trained diffusion model to output segmentation masks. It naturally extends to a multi-class setting simply by prompting the target organ. Our experiment on organ segmentation from CT images demonstrates strong performance compared to previous methods and could greatly benefit from an expert-in-the-loop setting to leverage multiple proposals. Importantly, we demonstrate that the learned conditioning mechanism can be easily transferred through low-rank, few-shot adaptation to segment MR images.
- Abstract(参考訳): 広く採用されている医用画像分割法は、効率的ではあるが、決定論的であり、自然言語のプロンプトには不十分である。
したがって、複数の提案、人間の相互作用、モダリティ間の適応を見積もる能力は欠如している。
近年,テキストと画像の拡散モデルがギャップを埋める可能性を示している。
しかし、それらをスクラッチからトレーニングするには、医療画像セグメンテーションのための大きなデータセット制限が必要である。
さらに、それらはしばしばバイナリセグメンテーションに制限され、自然言語のプロンプトでは条件付けできない。
この目的のために,医用画像分割のために既存の画像生成モデルを活用するProGiDiffという新しいフレームワークを提案する。
具体的には,イメージコンディショニングに適したカスタムエンコーダを備えた制御ネット型コンディショニング機構を提案する。
対象の臓器を刺激するだけで、自然にマルチクラス設定に拡張される。
CT画像からの臓器の分節化実験は,従来の方法と比較して高い性能を示し,複数の提案を活用できるプリンシパル・イン・ザ・ループ設定の利点を大いに生かしている。
重要なことは、この学習条件付け機構は、セグメントMR画像への低ランク、少数ショット適応により容易に伝達できることである。
関連論文リスト
- Diffusion Model in Latent Space for Medical Image Segmentation Task [0.0]
MedSegLatDiffは、変動オートエンコーダ(VAE)と遅延拡散モデルを組み合わせた拡散ベースのフレームワークで、効率的な医用画像分割を行う。
芸術または非常に競争の激しいDiceとIoUのスコアの状態を達成し、同時に多様なセグメンテーション仮説と信頼マップを生成する。
論文 参考訳(メタデータ) (2025-12-01T05:26:43Z) - UniSegDiff: Boosting Unified Lesion Segmentation via a Staged Diffusion Model [53.34835793648352]
病変分割のための新しい拡散モデルフレームワークUniSegDiffを提案する。
UniSegDiffは、複数のモダリティと臓器にまたがる統一された方法で病変のセグメンテーションに対処する。
総合的な実験結果から、UniSegDiffは従来のSOTA(State-of-the-art)アプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-07-24T12:33:10Z) - MAMBO-NET: Multi-Causal Aware Modeling Backdoor-Intervention Optimization for Medical Image Segmentation Network [51.68708264694361]
融合因子は、複雑な解剖学的変異や画像のモダリティ制限などの医療画像に影響を与える可能性がある。
医用画像セグメンテーションのためのバックドア・インターベンション最適化ネットワークを提案する。
本手法は, 混乱要因の影響を著しく低減し, セグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2025-05-28T01:40:10Z) - AutoMiSeg: Automatic Medical Image Segmentation via Test-Time Adaptation of Foundation Models [11.00876772668728]
本稿では,視覚言語とセグメンテーション基礎モデルを組み合わせたゼロショット自動セグメンテーションパイプラインを提案する。
我々のパイプラインは7つの多様な医用画像データセットに基づいて評価され、有望な結果を示す。
論文 参考訳(メタデータ) (2025-05-23T14:07:21Z) - Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - I-MedSAM: Implicit Medical Image Segmentation with Segment Anything [24.04558900909617]
提案するI-MedSAMは、連続表現とSAMの両方の利点を利用して、クロスドメイン能力と正確な境界線を求める。
トレーニング可能なパラメータが1.6Mしかない提案手法は、離散的および暗黙的を含む既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-28T00:43:52Z) - Self-Prompting Large Vision Models for Few-Shot Medical Image
Segmentation [14.135249795318591]
本稿では,医療ビジョン応用における自己プロンプトの新たな視点を提案する。
我々は、Segment Anything Modelの埋め込み空間を利用して、単純だが効果的な線形ピクセルワイド分類器を通して自身を誘導する。
複数のデータセットで競合する結果を得る。
論文 参考訳(メタデータ) (2023-08-15T08:20:07Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。