論文の概要: Discrete Spatial Diffusion: Intensity-Preserving Diffusion Modeling
- arxiv url: http://arxiv.org/abs/2505.01917v2
- Date: Fri, 16 May 2025 20:30:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 17:08:52.853907
- Title: Discrete Spatial Diffusion: Intensity-Preserving Diffusion Modeling
- Title(参考訳): 離散空間拡散:強度保存拡散モデリング
- Authors: Javier E. Santos, Agnese Marcato, Roman Colman, Nicholas Lubbers, Yen Ting Lin,
- Abstract要約: 本研究では,離散空間領域で直接動作する連続時間離散状態ジャンププロセスに基づくフレームワークを提案する。
粒子保存を実現するために空間拡散を用いることで、離散的な定式化を通じて自然に導入する。
画像合成,クラスコンディショニング,画像インペインティングを標準画像ベンチマークで行うことで,DSDの表現的柔軟性を示す。
- 参考スコア(独自算出の注目度): 2.2000635322691378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative diffusion models have achieved remarkable success in producing high-quality images. However, these models typically operate in continuous intensity spaces, diffusing independently across pixels and color channels. As a result, they are fundamentally ill-suited for applications involving inherently discrete quantities-such as particle counts or material units-that are constrained by strict conservation laws like mass conservation, limiting their applicability in scientific workflows. To address this limitation, we propose Discrete Spatial Diffusion (DSD), a framework based on a continuous-time, discrete-state jump stochastic process that operates directly in discrete spatial domains while strictly preserving particle counts in both forward and reverse diffusion processes. By using spatial diffusion to achieve particle conservation, we introduce stochasticity naturally through a discrete formulation. We demonstrate the expressive flexibility of DSD by performing image synthesis, class conditioning, and image inpainting across standard image benchmarks, while exactly conditioning total image intensity. We validate DSD on two challenging scientific applications: porous rock microstructures and lithium-ion battery electrodes, demonstrating its ability to generate structurally realistic samples under strict mass conservation constraints, with quantitative evaluation using state-of-the-art metrics for transport and electrochemical performance.
- Abstract(参考訳): 生成拡散モデルは高品質な画像の生成において顕著な成功を収めた。
しかしながら、これらのモデルは典型的には連続的な強度空間で動作し、画素や色チャネル間で独立に拡散する。
結果として、粒子数や物質単位のような本質的に離散的な量を含む応用には基本的に不適合であり、これは大量保存のような厳格な保存法則によって制約され、科学的なワークフローにおける適用性に制限される。
この制限に対処するために、離散空間拡散法(DSD)を提案する。これは、離散空間領域で直接動作し、前方および逆拡散過程の粒子数を厳密に保存する連続的な時間的離散状態ジャンプ確率過程に基づくフレームワークである。
粒子保存を実現するために空間拡散を用いることで、離散的な定式化によって自然に確率性を導入する。
画像合成,クラスコンディショニング,画像インパインティングを標準画像ベンチマーク上で実施し,全画像強度を正確に条件付けすることで,DSDの表現的柔軟性を示す。
我々は,多孔質岩の微細構造とリチウムイオン電池電極の2つの科学的応用を検証し,物質保存の厳密な制約の下で構造的にリアルな試料を生成できることを実証した。
関連論文リスト
- Diffusion Prism: Enhancing Diversity and Morphology Consistency in Mask-to-Image Diffusion [4.0301593672451]
Diffusion Prismは、バイナリマスクを現実的で多様なサンプルに変換する、トレーニング不要のフレームワークである。
少量の人工ノイズが画像デノゲーションプロセスに大きく役立つことを探る。
論文 参考訳(メタデータ) (2025-01-01T20:04:25Z) - Fine-Tuning Discrete Diffusion Models via Reward Optimization with Applications to DNA and Protein Design [56.957070405026194]
拡散モデルにより生成された軌道全体を通して報酬の直接バックプロパゲーションを可能にするアルゴリズムを提案する。
DRAKESは自然に似ており、高い報酬をもたらすシーケンスを生成することができる。
論文 参考訳(メタデータ) (2024-10-17T15:10:13Z) - G2D2: Gradient-guided Discrete Diffusion for image inverse problem solving [55.185588994883226]
本稿では,従来の離散拡散に基づく画像生成モデルを活用することによって,線形逆問題に対処する新しい手法を提案する。
我々の知る限りでは、これは画像逆問題を解決するために離散拡散モデルに基づく先行手法を使う最初のアプローチである。
論文 参考訳(メタデータ) (2024-10-09T06:18:25Z) - Edge-preserving noise for diffusion models [4.435514696080208]
既存の等方性モデルに対して一般化した新しいエッジ保存拡散モデルを提案する。
モデルの生成過程はより高速に収束し, 対象の分布とより密に一致していることを示す。
我々のエッジ保存拡散プロセスは、非条件画像生成における最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2024-10-02T13:29:52Z) - Distilling Diffusion Models into Conditional GANs [90.76040478677609]
複雑な多段階拡散モデルを1段階条件付きGAN学生モデルに蒸留する。
E-LatentLPIPSは,拡散モデルの潜在空間で直接動作する知覚的損失である。
我々は, 最先端の1ステップ拡散蒸留モデルよりも優れた1ステップ発生器を実証した。
論文 参考訳(メタデータ) (2024-05-09T17:59:40Z) - Smooth Diffusion: Crafting Smooth Latent Spaces in Diffusion Models [82.8261101680427]
滑らかな潜伏空間は、入力潜伏空間上の摂動が出力画像の定常的な変化に対応することを保証している。
この特性は、画像の反転、反転、編集を含む下流タスクにおいて有益である。
スムース拡散(Smooth Diffusion, Smooth Diffusion)は, 高速かつスムーズな拡散モデルである。
論文 参考訳(メタデータ) (2023-12-07T16:26:23Z) - Unifying Diffusion Models' Latent Space, with Applications to
CycleDiffusion and Guidance [95.12230117950232]
関係領域で独立に訓練された2つの拡散モデルから共通潜時空間が現れることを示す。
テキスト・画像拡散モデルにCycleDiffusionを適用することで、大規模なテキスト・画像拡散モデルがゼロショット画像・画像拡散エディタとして使用できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。