論文の概要: DPL: Spatial-Conditioned Diffusion Prototype Enhancement for One-Shot Medical Segmentation
- arxiv url: http://arxiv.org/abs/2510.12159v1
- Date: Tue, 14 Oct 2025 05:28:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.195692
- Title: DPL: Spatial-Conditioned Diffusion Prototype Enhancement for One-Shot Medical Segmentation
- Title(参考訳): DPL : ワンショット医療セグメント化のための空間依存型拡散型プロトタイプの開発
- Authors: Ziyuan Gao, Philippe Morel,
- Abstract要約: 1ショットの医用画像セグメンテーションは、注釈付きデータに制限があり、患者間で解剖学的変動があるため、プロトタイプ表現の基本的な課題に直面している。
従来のプロトタイプベースの手法は、サポート機能の決定論的平均化に依存しており、堅牢な一般化に不可欠なクラス内の多様性を捉えるのに失敗する脆い表現を生成する。
拡散に基づく特徴空間探索によってプロトタイプ構築を再構築する新しいフレームワークであるDiffusion Prototype Learningを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot medical image segmentation faces fundamental challenges in prototype representation due to limited annotated data and significant anatomical variability across patients. Traditional prototype-based methods rely on deterministic averaging of support features, creating brittle representations that fail to capture intra-class diversity essential for robust generalization. This work introduces Diffusion Prototype Learning (DPL), a novel framework that reformulates prototype construction through diffusion-based feature space exploration. DPL models one-shot prototypes as learnable probability distributions, enabling controlled generation of diverse yet semantically coherent prototype variants from minimal labeled data. The framework operates through three core innovations: (1) a diffusion-based prototype enhancement module that transforms single support prototypes into diverse variant sets via forward-reverse diffusion processes, (2) a spatial-aware conditioning mechanism that leverages geometric properties derived from prototype feature statistics, and (3) a conservative fusion strategy that preserves prototype fidelity while maximizing representational diversity. DPL ensures training-inference consistency by using the same diffusion enhancement and fusion pipeline in both phases. This process generates enhanced prototypes that serve as the final representations for similarity calculations, while the diffusion process itself acts as a regularizer. Extensive experiments on abdominal MRI and CT datasets demonstrate significant improvements respectively, establishing new state-of-the-art performance in one-shot medical image segmentation.
- Abstract(参考訳): 1ショットの医用画像セグメンテーションは、注釈付きデータに制限があり、患者間で有意な解剖学的変動があるため、プロトタイプ表現の基本的な課題に直面している。
従来のプロトタイプベースの手法は、サポート機能の決定論的平均化に依存しており、堅牢な一般化に不可欠なクラス内の多様性を捉えるのに失敗する脆い表現を生成する。
本研究は拡散型特徴空間探索によりプロトタイプ構築を再構築する新しいフレームワークである拡散プロトタイプ学習(DPL)を紹介する。
DPLは1発のプロトタイプを学習可能な確率分布としてモデル化し、最小ラベル付きデータから多種多様なセマンティックコヒーレントなプロトタイプを生成できる。
本フレームワークは,(1) 単一サポートプロトタイプを前方逆拡散法により多様な変種集合に変換する拡散型プロトタイプ拡張モジュール,(2) プロトタイプ特徴統計から得られる幾何学的特性を活用する空間認識条件付け機構,(3) 表現多様性を最大化しながらプロトタイプの忠実性を保った保守的融合戦略の3つのコアイノベーションを通じて機能する。
DPLは、両方のフェーズで同じ拡散増強と融合パイプラインを使用することで、トレーニングと推論の整合性を保証する。
このプロセスは、類似性計算の最終表現として機能する拡張されたプロトタイプを生成し、拡散プロセス自体が正規化子として機能する。
腹部MRIおよびCTデータセットの広範囲にわたる実験は, それぞれ有意な改善を示し, ワンショット医用画像分割における新しい最先端性能を確立した。
関連論文リスト
- Few to Big: Prototype Expansion Network via Diffusion Learner for Point Cloud Few-shot Semantic Segmentation [12.971351926107289]
Prototype Expansion Network (PENet) は、2つのアノテートされた特徴源から大容量のプロトタイプを構築するフレームワークである。
PENetは、様々ないくつかのショット設定で最先端のメソッドを著しく上回っている。
論文 参考訳(メタデータ) (2025-09-16T09:29:46Z) - FedProtoKD: Dual Knowledge Distillation with Adaptive Class-wise Prototype Margin for Heterogeneous Federated Learning [18.44030373279699]
統計的不均一性とプライバシー問題に対処するための有望なソリューションとして,プロトタイプベースの不均一フェデレートラーニング(HFL)手法が出現する。
我々は、クライアントのロジットとプロトタイプ表現によるシステム性能向上のために、拡張された二重知識蒸留機構を用いて、異種フェデレート学習環境におけるFedProtoKDを提案する。
FedProtoKDは様々な設定で1.13%から34.13%の精度で平均的な改善を達成し、既存の最先端のHFL法よりも大幅に向上した。
論文 参考訳(メタデータ) (2025-08-26T13:14:29Z) - UniSegDiff: Boosting Unified Lesion Segmentation via a Staged Diffusion Model [53.34835793648352]
病変分割のための新しい拡散モデルフレームワークUniSegDiffを提案する。
UniSegDiffは、複数のモダリティと臓器にまたがる統一された方法で病変のセグメンテーションに対処する。
総合的な実験結果から、UniSegDiffは従来のSOTA(State-of-the-art)アプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-07-24T12:33:10Z) - Probabilistic Prototype Calibration of Vision-Language Models for Generalized Few-shot Semantic Segmentation [75.18058114915327]
一般化されたFew-Shot Semanticnative(GFSS)は、いくつかの注釈付き例だけでセグメンテーションモデルを新しいクラスに拡張することを目的としている。
プリトレーニング済みCLIPのマルチモーダルプロトタイプ上での確率的プロトタイプ校正フレームワークであるFewCLIPを提案する。
FewCLIPはGFSSとクラスインクリメンタルセッティングの両方で最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2025-06-28T18:36:22Z) - Mind the Gap Between Prototypes and Images in Cross-domain Finetuning [64.97317635355124]
プロトタイプと画像にそれぞれ異なる変換を適用するために,コントラスト型プロトタイプイメージ適応(CoPA)を提案する。
Meta-Datasetの実験では、CoPAが最先端のパフォーマンスをより効率的に達成できることが示されている。
論文 参考訳(メタデータ) (2024-10-16T11:42:11Z) - CriDiff: Criss-cross Injection Diffusion Framework via Generative Pre-train for Prostate Segmentation [60.61972883059688]
CridiffはCrisscross Injection Strategy(CIS)とGenerative Pre-train(GP)アプローチによる2段階の機能注入フレームワークである。
CISでは,複数レベルのエッジ特徴と非エッジ特徴を効果的に学習するために,並列コンディショナーを2つ提案した。
GPアプローチは、追加パラメータを追加することなく、画像特徴と拡散モデルとの矛盾を緩和する。
論文 参考訳(メタデータ) (2024-06-20T10:46:50Z) - Mixed Prototype Consistency Learning for Semi-supervised Medical Image Segmentation [0.0]
本稿では,Mixed Prototype Consistency Learning (MPCL) フレームワークを提案する。
Mean Teacherはラベル付きおよびラベルなしデータのプロトタイプを生成し、補助ネットワークはCutMixによって処理された混合データのための追加のプロトタイプを生成する。
各クラスの高品質なグローバルプロトタイプは、2つの強化されたプロトタイプを融合して形成され、一貫性学習に使用される隠れ埋め込みの分布を最適化する。
論文 参考訳(メタデータ) (2024-04-16T16:51:12Z) - Few-Shot Medical Image Segmentation via a Region-enhanced Prototypical
Transformer [20.115149216170327]
Region-enhanced Prototypeal Transformer (RPT) は、大規模なクラス内多様性/バイアスの影響を緩和するための、数発の学習に基づく手法である。
BaTブロックを積み重ねることで、提案したRTTは、生成した地域プロトタイプを反復的に最適化し、最終的に修正されたより正確なグローバルプロトタイプを生成することができる。
論文 参考訳(メタデータ) (2023-09-09T15:39:38Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。