論文の概要: Prior-Guided Residual Diffusion: Calibrated and Efficient Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2509.01330v1
- Date: Mon, 01 Sep 2025 10:13:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.642108
- Title: Prior-Guided Residual Diffusion: Calibrated and Efficient Medical Image Segmentation
- Title(参考訳): 先行ガイド下残差拡散 : 校正・効率的な医用画像分割法
- Authors: Fuyou Mao, Beining Wu, Yanfeng Jiang, Han Xue, Yan Tang, Hao Zhang,
- Abstract要約: Prior-Guided Residual Diffusion (PGRD) は、ボクセルの分布を学習する拡散ベースのフレームワークである。
MRIおよびCTデータセットを用いて評価した。
- 参考スコア(独自算出の注目度): 11.375625987308927
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ambiguity in medical image segmentation calls for models that capture full conditional distributions rather than a single point estimate. We present Prior-Guided Residual Diffusion (PGRD), a diffusion-based framework that learns voxel-wise distributions while maintaining strong calibration and practical sampling efficiency. PGRD embeds discrete labels as one-hot targets in a continuous space to align segmentation with diffusion modeling. A coarse prior predictor provides step-wise guidance; the diffusion network then learns the residual to the prior, accelerating convergence and improving calibration. A deep diffusion supervision scheme further stabilizes training by supervising intermediate time steps. Evaluated on representative MRI and CT datasets, PGRD achieves higher Dice scores and lower NLL/ECE values than Bayesian, ensemble, Probabilistic U-Net, and vanilla diffusion baselines, while requiring fewer sampling steps to reach strong performance.
- Abstract(参考訳): 医療画像のセグメンテーションにおける曖昧さは、単一の点推定ではなく、完全な条件分布をキャプチャするモデルを要求する。
本稿では,強いキャリブレーションと実用的なサンプリング効率を維持しつつ,ボクセルの分布を学習する拡散に基づくフレームワークであるPGRDを提案する。
PGRDは離散ラベルを1ホットターゲットとして連続空間に埋め込み、セグメンテーションと拡散モデリングを一致させる。
粗い事前予測器は、ステップワイズガイダンスを提供し、拡散ネットワークは、先の残差を学習し、収束を加速し、校正を改善する。
深層拡散監督スキームは、中間時間ステップを監督することにより、さらに訓練を安定化させる。
PGRDは、MRIおよびCTデータセットに基づいて評価され、ベイジアン、アンサンブル、確率的U-Net、バニラ拡散ベースラインよりも高いDiceスコアと低いNLL/ECE値を達成する。
関連論文リスト
- RDIT: Residual-based Diffusion Implicit Models for Probabilistic Time Series Forecasting [4.140149411004857]
RDITは、点推定と残差に基づく条件拡散と双方向のMambaネットワークを組み合わせたプラグアンドプレイフレームワークである。
RDITは, 強いベースラインに比べてCRPSの低下, 高速推論, カバレッジの向上を実現している。
論文 参考訳(メタデータ) (2025-09-02T14:06:29Z) - UniSegDiff: Boosting Unified Lesion Segmentation via a Staged Diffusion Model [53.34835793648352]
病変分割のための新しい拡散モデルフレームワークUniSegDiffを提案する。
UniSegDiffは、複数のモダリティと臓器にまたがる統一された方法で病変のセグメンテーションに対処する。
総合的な実験結果から、UniSegDiffは従来のSOTA(State-of-the-art)アプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2025-07-24T12:33:10Z) - A Generative Framework for Causal Estimation via Importance-Weighted Diffusion Distillation [55.53426007439564]
観察データから個別化された治療効果を推定することは因果推論における中心的な課題である。
逆確率重み付け(IPW)は、この問題に対するよく確立された解決策であるが、現代のディープラーニングフレームワークへの統合は依然として限られている。
本稿では,拡散モデルの事前学習と重み付きスコア蒸留を組み合わせた新しい生成フレームワークであるIWDDを提案する。
論文 参考訳(メタデータ) (2025-05-16T17:00:52Z) - Improving Vector-Quantized Image Modeling with Latent Consistency-Matching Diffusion [55.185588994883226]
VQ-LCMDは、学習を安定させる埋め込み空間内の連続空間潜在拡散フレームワークである。
VQ-LCMDは、関節埋め込み拡散変動下界と整合整合性(CM)損失を組み合わせた新しいトレーニング目標を使用する。
実験により,提案したVQ-LCMDは離散状態潜伏拡散モデルと比較して,FFHQ,LSUN教会,LSUNベッドルームにおいて優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-18T09:12:33Z) - Channel-aware Contrastive Conditional Diffusion for Multivariate Probabilistic Time Series Forecasting [19.383395337330082]
本稿では,CCDM(Contrastive Conditional Diffusion)モデルを提案する。
提案したCCDMは,現在最先端の拡散予測器と比較して優れた予測能力を示すことができる。
論文 参考訳(メタデータ) (2024-10-03T03:13:15Z) - Manifold Preserving Guided Diffusion [121.97907811212123]
条件付き画像生成は、コスト、一般化可能性、タスク固有のトレーニングの必要性といった課題に直面している。
トレーニング不要な条件生成フレームワークであるManifold Preserving Guided Diffusion (MPGD)を提案する。
論文 参考訳(メタデータ) (2023-11-28T02:08:06Z) - DoseDiff: Distance-aware Diffusion Model for Dose Prediction in Radiotherapy [7.934475806787889]
線量分布を正確に予測するための距離認識拡散モデル(DoseDiff)を提案する。
その結果,ドセディフ法は定量的性能と視覚的品質の両方の観点から,最先端の線量予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-06-28T15:58:53Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - Diffusion-GAN: Training GANs with Diffusion [135.24433011977874]
GAN(Generative Adversarial Network)は、安定してトレーニングすることが難しい。
フォワード拡散チェーンを利用してインスタンスノイズを生成する新しいGANフレームワークであるDiffusion-GANを提案する。
我々は,Diffusion-GANにより,最先端のGANよりも高い安定性とデータ効率で,よりリアルな画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-06-05T20:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。