論文の概要: Geodesic Diffusion Models for Medical Image-to-Image Generation
- arxiv url: http://arxiv.org/abs/2503.00745v1
- Date: Sun, 02 Mar 2025 05:57:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:27.824872
- Title: Geodesic Diffusion Models for Medical Image-to-Image Generation
- Title(参考訳): 医用画像・画像生成のための測地拡散モデル
- Authors: Teng Zhang, Hongxu Jiang, Kuang Gong, Wei Shao,
- Abstract要約: 拡散モデルは、ノイズを加えることによって未知のデータ分布をガウスに変換する。
その後、デノイザーはこの過程を逆転させ、ランダムなガウスノイズから高品質なサンプルを生成する。
標準拡散モデルは、確率空間における測地経路を保証しない。
本稿では,分散拡散型ノイズスケジューラを用いた測地線経路をフィッシャー・ラオ計量の下で定義する測地線拡散モデルを提案する。
- 参考スコア(独自算出の注目度): 8.929849404539999
- License:
- Abstract: Diffusion models transform an unknown data distribution into a Gaussian prior by progressively adding noise until the data become indistinguishable from pure noise. This stochastic process traces a path in probability space, evolving from the original data distribution (considered as a Gaussian with near-zero variance) to an isotropic Gaussian. The denoiser then learns to reverse this process, generating high-quality samples from random Gaussian noise. However, standard diffusion models, such as the Denoising Diffusion Probabilistic Model (DDPM), do not ensure a geodesic (i.e., shortest) path in probability space. This inefficiency necessitates the use of many intermediate time steps, leading to high computational costs in training and sampling. To address this limitation, we propose the Geodesic Diffusion Model (GDM), which defines a geodesic path under the Fisher-Rao metric with a variance-exploding noise scheduler. This formulation transforms the data distribution into a Gaussian prior with minimal energy, significantly improving the efficiency of diffusion models. We trained GDM by continuously sampling time steps from 0 to 1 and using as few as 15 evenly spaced time steps for model sampling. We evaluated GDM on two medical image-to-image generation tasks: CT image denoising and MRI image super-resolution. Experimental results show that GDM achieved state-of-the-art performance while reducing training time by a 50-fold compared to DDPM and 10-fold compared to Fast-DDPM, with 66 times faster sampling than DDPM and a similar sampling speed to Fast-DDPM. These efficiency gains enable rapid model exploration and real-time clinical applications. Our code is publicly available at: https://github.com/mirthAI/GDM-VE.
- Abstract(参考訳): 拡散モデルは、データが純粋なノイズと区別されなくなるまで、段階的にノイズを加えることによって、未知のデータ分布をガウスに変換する。
この確率過程は確率空間の経路を辿り、元のデータ分布(ほぼゼロの分散を持つガウス分布と見なされる)から等方ガウスへと進化する。
その後、デノイザーはこの過程を逆転させ、ランダムなガウスノイズから高品質なサンプルを生成する。
しかし、Denoising Diffusion Probabilistic Model (DDPM) のような標準拡散モデルは、測地線(すなわち、最短)の経路を確率空間内で保証しない。
この非効率性は、多くの中間時間ステップの使用を必要とし、訓練とサンプリングに高い計算コストをもたらす。
この制限に対処するために、分散拡散ノイズスケジューラを用いたフィッシャー・ラオ計量の下で測地線経路を定義する測地線拡散モデル(GDM)を提案する。
この定式化は、データ分布を最小エネルギーでガウス前のガウスに変換し、拡散モデルの効率を大幅に改善する。
我々は,0から1までの時間ステップを連続的にサンプリングし,モデルサンプリングに15の等間隔時間ステップを用いてGDMを訓練した。
我々はGDMを2つの医用画像・画像生成タスク、すなわちCT画像のデノイングとMRI画像の超解像で評価した。
実験の結果, GDMはDDPMに比べて50倍, 10倍のトレーニング時間を短縮し, DDPMの66倍のサンプリング速度とFast-DDPMと同様のサンプリング速度を達成できた。
これらの効率性は、迅速なモデル探索とリアルタイム臨床応用を可能にする。
私たちのコードは、https://github.com/mirthAI/GDM-VE.comで公開されています。
関連論文リスト
- Distributional Diffusion Models with Scoring Rules [83.38210785728994]
拡散モデルは高品質な合成データを生成する。
高品質な出力を生成するには、多くの離散化ステップが必要です。
クリーンデータサンプルの後部エム分布を学習し,サンプル生成を実現することを提案する。
論文 参考訳(メタデータ) (2025-02-04T16:59:03Z) - Score-based Generative Models with Adaptive Momentum [40.84399531998246]
変換過程を高速化する適応運動量サンプリング法を提案する。
提案手法は,2倍から5倍の速度で,より忠実な画像/グラフを小さなサンプリングステップで作成できることを示す。
論文 参考訳(メタデータ) (2024-05-22T15:20:27Z) - Fast Diffusion Model [122.36693015093041]
拡散モデル(DM)は、複雑なデータ分布を捉える能力を持つ様々な分野に採用されている。
本稿では,DM最適化の観点から,高速拡散モデル (FDM) を提案する。
論文 参考訳(メタデータ) (2023-06-12T09:38:04Z) - UDPM: Upsampling Diffusion Probabilistic Models [33.51145642279836]
拡散確率モデル(DDPM、Denoising Diffusion Probabilistic Models)は近年注目されている。
DDPMは逆プロセスを定義することによって複雑なデータ分布から高品質なサンプルを生成する。
生成逆数ネットワーク(GAN)とは異なり、拡散モデルの潜伏空間は解釈できない。
本研究では,デノナイズ拡散過程をUDPM(Upsampling Diffusion Probabilistic Model)に一般化することを提案する。
論文 参考訳(メタデータ) (2023-05-25T17:25:14Z) - Fast Diffusion Probabilistic Model Sampling through the lens of Backward
Error Analysis [26.907301901503835]
拡散確率モデル (DDPM) は強力な生成モデルの一種である。
DDPMは通常、サンプルを生成するために数百から数千の連続関数評価(ステップ)を必要とする。
本稿では,高い試料品質を維持しつつ,ステップの少ないDDPMの高速サンプリング法を開発することを目的とする。
論文 参考訳(メタデータ) (2023-04-22T16:58:47Z) - Denoising Diffusion Samplers [41.796349001299156]
拡散モデルの認知は、多くの領域で最先端の結果を提供する生成モデルの一般的なクラスである。
我々は、非正規化確率密度関数から大まかにサンプリングし、それらの正規化定数を推定する類似のアイデアを探求する。
この文脈ではスコアマッチングは適用できないが、モンテカルロサンプリングのために生成的モデリングで導入された多くのアイデアを利用することができる。
論文 参考訳(メタデータ) (2023-02-27T14:37:16Z) - Fast Sampling of Diffusion Models via Operator Learning [74.37531458470086]
我々は,拡散モデルのサンプリング過程を高速化するために,確率フロー微分方程式の効率的な解法であるニューラル演算子を用いる。
シーケンシャルな性質を持つ他の高速サンプリング手法と比較して、並列復号法を最初に提案する。
本稿では,CIFAR-10では3.78、ImageNet-64では7.83の最先端FIDを1モデル評価環境で達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T07:30:27Z) - Accelerating Diffusion Models via Early Stop of the Diffusion Process [114.48426684994179]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な世代タスクにおいて優れたパフォーマンスを実現している。
実際には、DDPMは高品質なサンプルを得るために何十万ものデノナイジングステップを必要とすることが多い。
本稿では,DDPMの早期停止型DDPM(Early-Stopped DDPM, ES-DDPM)の原理的高速化戦略を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:40:09Z) - Pseudo Numerical Methods for Diffusion Models on Manifolds [77.40343577960712]
Denoising Diffusion Probabilistic Models (DDPM) は、画像やオーディオサンプルなどの高品質なサンプルを生成することができる。
DDPMは最終的なサンプルを生成するために数百から数千のイテレーションを必要とする。
拡散モデル(PNDM)の擬似数値法を提案する。
PNDMは、1000段DDIM(20倍の高速化)と比較して、50段の精度で高品質な合成画像を生成することができる
論文 参考訳(メタデータ) (2022-02-20T10:37:52Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。