論文の概要: Cloud Diffusion Part 1: Theory and Motivation
- arxiv url: http://arxiv.org/abs/2507.05496v1
- Date: Mon, 07 Jul 2025 21:36:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.353725
- Title: Cloud Diffusion Part 1: Theory and Motivation
- Title(参考訳): クラウド拡散 第1部:理論とモチベーション
- Authors: Andrew Randono,
- Abstract要約: 画像集合にノイズを段階的に付加し、信号とノイズを分離するモデルを訓練することにより、画像生成機能の拡散モデルを構築する。
これらのモデルはより高速な推論、高周波の詳細の改善、制御性の向上につながると我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models for image generation function by progressively adding noise to an image set and training a model to separate out the signal from the noise. The noise profile used by these models is white noise -- that is, noise based on independent normal distributions at each point whose mean and variance is independent of the scale. By contrast, most natural image sets exhibit a type of scale invariance in their low-order statistical properties characterized by a power-law scaling. Consequently, natural images are closer (in a quantifiable sense) to a different probability distribution that emphasizes large scale correlations and de-emphasizes small scale correlations. These scale invariant noise profiles can be incorporated into diffusion models in place of white noise to form what we will call a ``Cloud Diffusion Model". We argue that these models can lead to faster inference, improved high-frequency details, and greater controllability. In a follow-up paper, we will build and train a Cloud Diffusion Model that uses scale invariance at a fundamental level and compare it to classic, white noise diffusion models.
- Abstract(参考訳): 画像集合にノイズを段階的に付加し、信号とノイズを分離するモデルを訓練することにより、画像生成機能の拡散モデルを構築する。
これらのモデルで使用されるノイズプロファイルは、ホワイトノイズであり、すなわち、平均と分散がスケールに依存しない各点における独立正規分布に基づくノイズである。
対照的に、ほとんどの自然画像集合は、その低次の統計特性において、パワー・ロー・スケーリングによって特徴づけられる種類のスケール不変性を示す。
その結果、自然画像は(定量的な意味で)異なる確率分布に近づき、大規模相関を強調し、小規模相関を非強調する。
これらのスケール不変ノイズプロファイルは、ホワイトノイズの代わりに拡散モデルに組み込むことができ、 '`Cloud Diffusion Model' と呼ばれるものを形成する。
これらのモデルはより高速な推論、高周波の詳細の改善、制御性の向上につながると我々は主張する。
続く論文では、基本的なレベルでスケール不変性を使用し、古典的なホワイトノイズ拡散モデルと比較するクラウド拡散モデルを構築し、訓練する。
関連論文リスト
- Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment [56.609042046176555]
準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
論文 参考訳(メタデータ) (2024-06-18T06:20:42Z) - Glauber Generative Model: Discrete Diffusion Models via Binary Classification [21.816933208895843]
離散拡散モデルの新しいクラスであるグラウバー生成モデル(GGM)を紹介する。
GGMはマルコフ連鎖を展開させ、離散トークンの共分散からサンプルにノイズトークンの列を分解する。
言語生成や画像生成において,既存の離散拡散モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-27T10:42:13Z) - Diffusion Models With Learned Adaptive Noise [12.530583016267768]
本稿では,拡散過程がデータから学べるかどうかを考察する。
広く信じられている仮定は、ELBOはノイズプロセスに不変であるということである。
画像間で異なる速度でノイズを印加する学習拡散過程であるMULANを提案する。
論文 参考訳(メタデータ) (2023-12-20T18:00:16Z) - Multi-scale Diffusion Denoised Smoothing [79.95360025953931]
ランダムな平滑化は、大規模モデルに敵対的ロバスト性を提供する、いくつかの具体的なアプローチの1つになっている。
本報告では, 分割平滑化におけるロバスト性と精度との現在のトレードオフに対処するスケーラブルな手法を提案する。
提案手法と拡散微細調整を併用したマルチスケール平滑化手法により,高騒音レベルで高い信頼性のロバスト性が得られることを示す。
論文 参考訳(メタデータ) (2023-10-25T17:11:21Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Cold Diffusion: Inverting Arbitrary Image Transforms Without Noise [52.59444045853966]
画像劣化の選択を変更すれば,生成モデル全体のファミリを構築することができることを示す。
完全な決定論的モデルの成功は、拡散モデルに対するコミュニティの理解に疑問を投げかける。
論文 参考訳(メタデータ) (2022-08-19T15:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。