論文の概要: Modelos Generativos basados en Mecanismos de Difusi\'on
- arxiv url: http://arxiv.org/abs/2302.09378v1
- Date: Sat, 18 Feb 2023 16:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 18:55:10.908149
- Title: Modelos Generativos basados en Mecanismos de Difusi\'on
- Title(参考訳): ジフシオンのメカニズムにおけるバサドスのモデル
- Authors: Jordi de la Torre
- Abstract要約: 拡散に基づく生成モデルは、非平衡熱力学で見られるものと類似したプロセスから新しい画像を生成することができる設計フレームワークである。
本稿では,本手法を応用した理論的基礎について述べる。
- 参考スコア(独自算出の注目度): 0.40611352512781856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion-based generative models are a design framework that allows
generating new images from processes analogous to those found in
non-equilibrium thermodynamics. These models model the reversal of a physical
diffusion process in which two miscible liquids of different colors
progressively mix until they form a homogeneous mixture. Diffusion models can
be applied to signals of a different nature, such as audio and image signals.
In the image case, a progressive pixel corruption process is carried out by
applying random noise, and a neural network is trained to revert each one of
the corruption steps. For the reconstruction process to be reversible, it is
necessary to carry out the corruption very progressively. If the training of
the neural network is successful, it will be possible to generate an image from
random noise by chaining a number of steps similar to those used for image
deconstruction at training time. In this article we present the theoretical
foundations on which this method is based as well as some of its applications.
This article is in Spanish to facilitate the arrival of this scientific
knowledge to the Spanish-speaking community.
- Abstract(参考訳): 拡散に基づく生成モデルは、非平衡熱力学で見られるようなプロセスから新しい画像を生成することができる設計フレームワークである。
これらのモデルは、異なる色の2つの相溶性液体が均質な混合物を形成するまで徐々に混合する物理的拡散過程の反転をモデル化する。
拡散モデルは、オーディオや画像信号など、異なる性質の信号に適用することができる。
画像の場合、ランダムノイズを印加してプログレッシブ画素破壊処理を行い、ニューラルネットワークを訓練して、腐敗ステップのそれぞれを反転させる。
再建過程を可逆的にするためには, 汚職を段階的に行う必要がある。
ニューラルネットワークのトレーニングが成功すれば、トレーニング時に画像デコンストラクションに使用されるものと同様の多くのステップを連鎖させることで、ランダムノイズから画像を生成することができる。
本稿では,本手法とその応用に関する理論的基礎について述べる。
この記事はスペイン語で、この科学的知識がスペイン語圏に到達するのを手助けするものである。
関連論文リスト
- MMAR: Towards Lossless Multi-Modal Auto-Regressive Probabilistic Modeling [64.09238330331195]
本稿では,MMAR(Multi-Modal Auto-Regressive)確率モデルフレームワークを提案する。
離散化の手法とは異なり、MMARは情報損失を避けるために連続的に評価された画像トークンを取り入れる。
MMARは他のジョイントマルチモーダルモデルよりもはるかに優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T17:57:18Z) - A Phase Transition in Diffusion Models Reveals the Hierarchical Nature
of Data [55.748186000425996]
最近の進歩は、拡散モデルが高品質な画像を生成することを示している。
我々はこの現象を階層的なデータ生成モデルで研究する。
本分析は拡散モデルにおける時間とスケールの関係を特徴付ける。
論文 参考訳(メタデータ) (2024-02-26T19:52:33Z) - Nested Diffusion Processes for Anytime Image Generation [38.84966342097197]
そこで本研究では,任意の時間に任意の時間に停止した場合に,有効画像を生成することができるリアルタイム拡散法を提案する。
ImageNetとStable Diffusionを用いたテキスト・ツー・イメージ生成実験において,本手法の中間生成品質が元の拡散モデルよりも大幅に高いことを示す。
論文 参考訳(メタデータ) (2023-05-30T14:28:43Z) - Dimensionality-Varying Diffusion Process [52.52681373641533]
拡散モデルは、信号破壊プロセスを逆転して新しいデータを生成することを学習する。
信号分解による前方拡散過程の理論的一般化を行う。
FFHQで訓練された拡散モデルのFIDを,52.40から10.46までの1024Times1024$解像度で改善する。
論文 参考訳(メタデータ) (2022-11-29T09:05:55Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Cold Diffusion: Inverting Arbitrary Image Transforms Without Noise [52.59444045853966]
画像劣化の選択を変更すれば,生成モデル全体のファミリを構築することができることを示す。
完全な決定論的モデルの成功は、拡散モデルに対するコミュニティの理解に疑問を投げかける。
論文 参考訳(メタデータ) (2022-08-19T15:18:39Z) - Dynamic Dual-Output Diffusion Models [100.32273175423146]
反復分解に基づく生成は、他の生成モデルのクラスに匹敵する品質を示すことが示されている。
この方法の大きな欠点は、競合する結果を生み出すために数百のイテレーションが必要であることである。
近年の研究では、より少ないイテレーションでより高速に生成できるソリューションが提案されているが、画像の品質は徐々に低下している。
論文 参考訳(メタデータ) (2022-03-08T11:20:40Z) - Blind Motion Deblurring through SinGAN Architecture [21.104218472462907]
ブラインド・モーション・デブロワーリングは、ぼやけた観察から鋭いイメージを再構成する。
SinGANは無条件の生成モデルであり、単一の自然な画像から学習することができる。
論文 参考訳(メタデータ) (2020-11-07T06:09:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。