論文の概要: Not All Steps are Created Equal: Selective Diffusion Distillation for
Image Manipulation
- arxiv url: http://arxiv.org/abs/2307.08448v1
- Date: Mon, 17 Jul 2023 12:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 13:25:18.061954
- Title: Not All Steps are Created Equal: Selective Diffusion Distillation for
Image Manipulation
- Title(参考訳): すべてのステップが等しく作られるわけではない:画像操作のための選択的拡散蒸留
- Authors: Luozhou Wang, Shuai Yang, Shu Liu, Ying-cong Chen
- Abstract要約: 条件付き拡散モデルは、画像操作タスクにおいて顕著な性能を示した。
ノイズが多すぎると画像の忠実度に影響を与え、編集性にはほとんど影響を与えない。
画像の忠実度と編集性の両方を保証する新しいフレームワークである拡散選択蒸留(SDD)を提案する。
- 参考スコア(独自算出の注目度): 23.39614544877529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conditional diffusion models have demonstrated impressive performance in
image manipulation tasks. The general pipeline involves adding noise to the
image and then denoising it. However, this method faces a trade-off problem:
adding too much noise affects the fidelity of the image while adding too little
affects its editability. This largely limits their practical applicability. In
this paper, we propose a novel framework, Selective Diffusion Distillation
(SDD), that ensures both the fidelity and editability of images. Instead of
directly editing images with a diffusion model, we train a feedforward image
manipulation network under the guidance of the diffusion model. Besides, we
propose an effective indicator to select the semantic-related timestep to
obtain the correct semantic guidance from the diffusion model. This approach
successfully avoids the dilemma caused by the diffusion process. Our extensive
experiments demonstrate the advantages of our framework. Code is released at
https://github.com/AndysonYs/Selective-Diffusion-Distillation.
- Abstract(参考訳): 条件付き拡散モデルは、画像操作タスクにおいて顕著な性能を示した。
一般的なパイプラインでは、画像にノイズを追加し、それをデノナイズする。
しかし、この手法は、ノイズの多さが画像の忠実度に影響を及ぼす一方で、編集性に悪影響を及ぼすというトレードオフ問題に直面している。
これにより実用性が大幅に制限される。
本稿では,画像の忠実度と編集性を両立させる新しいフレームワーク,Selective Diffusion Distillation (SDD)を提案する。
拡散モデルを用いて画像を直接編集する代わりに、拡散モデルの指導の下でフィードフォワード画像操作ネットワークを訓練する。
また,拡散モデルから正しい意味指導を得るために,意味関連時間ステップを選択する効果的な指標を提案する。
このアプローチは拡散過程によって引き起こされるジレンマをうまく回避する。
我々のフレームワークの利点を実証する大規模な実験を行った。
コードはhttps://github.com/AndysonYs/Selective-Diffusion-Distillationで公開されている。
関連論文リスト
- Immiscible Diffusion: Accelerating Diffusion Training with Noise Assignment [56.609042046176555]
準最適雑音データマッピングは拡散モデルの遅い訓練につながる。
物理学における不和性現象からインスピレーションを得て,不和性拡散を提案する。
我々のアプローチは極めて単純で、各画像の拡散可能な領域を制限するために1行のコードしか必要としない。
論文 参考訳(メタデータ) (2024-06-18T06:20:42Z) - Diffusion Models With Learned Adaptive Noise [12.530583016267768]
本稿では,拡散過程がデータから学べるかどうかを考察する。
広く信じられている仮定は、ELBOはノイズプロセスに不変であるということである。
画像間で異なる速度でノイズを印加する学習拡散過程であるMULANを提案する。
論文 参考訳(メタデータ) (2023-12-20T18:00:16Z) - Smooth Diffusion: Crafting Smooth Latent Spaces in Diffusion Models [82.8261101680427]
滑らかな潜伏空間は、入力潜伏空間上の摂動が出力画像の定常的な変化に対応することを保証している。
この特性は、画像の反転、反転、編集を含む下流タスクにおいて有益である。
スムース拡散(Smooth Diffusion, Smooth Diffusion)は, 高速かつスムーズな拡散モデルである。
論文 参考訳(メタデータ) (2023-12-07T16:26:23Z) - Fuzzy-Conditioned Diffusion and Diffusion Projection Attention Applied
to Facial Image Correction [14.34815548338413]
我々は、暗黙の拡散先行を制御可能な強度で活用できるファジィ条件拡散を導出する。
本稿では,ファジィ条件の拡散と拡散依存性の注意マップを組み合わせた顔画像補正手法を提案する。
論文 参考訳(メタデータ) (2023-06-26T17:58:00Z) - Uncovering the Disentanglement Capability in Text-to-Image Diffusion
Models [60.63556257324894]
画像生成モデルの重要な特性は、異なる属性をアンタングルする能力である。
本稿では,2つのテキスト埋め込みの混合重みをスタイルマッチングとコンテンツ保存に最適化した,シンプルで軽量な画像編集アルゴリズムを提案する。
実験により,提案手法は拡散モデルに基づく画像編集アルゴリズムよりも優れた性能で,幅広い属性を修正可能であることが示された。
論文 参考訳(メタデータ) (2022-12-16T19:58:52Z) - Diffusion Visual Counterfactual Explanations [51.077318228247925]
VCE(Visual Counterfactual Explanations)は、画像の決定を理解するための重要なツールである。
VCEの生成に対する現在のアプローチは、逆向きに堅牢なモデルに制限されており、しばしば非現実的なアーティファクトを含んでいる。
本稿では、任意のイメージネット分類器に対して、視覚拡散対実説明(DVCE)を生成することでこれを克服する。
論文 参考訳(メタデータ) (2022-10-21T09:35:47Z) - Cold Diffusion: Inverting Arbitrary Image Transforms Without Noise [52.59444045853966]
画像劣化の選択を変更すれば,生成モデル全体のファミリを構築することができることを示す。
完全な決定論的モデルの成功は、拡散モデルに対するコミュニティの理解に疑問を投げかける。
論文 参考訳(メタデータ) (2022-08-19T15:18:39Z) - Progressive Deblurring of Diffusion Models for Coarse-to-Fine Image
Synthesis [39.671396431940224]
拡散モデルは、徐々にノイズを取り除き、増幅信号を増幅することにより、画像合成において顕著な結果を示した。
本稿では,画像の粗大な合成方法を提案する。
実験の結果,提案手法はLSUNの寝室や教会のデータセットにおいて,従来のFID法よりも優れていた。
論文 参考訳(メタデータ) (2022-07-16T15:00:21Z) - Non Gaussian Denoising Diffusion Models [91.22679787578438]
ガンマ分布からのノイズは、画像および音声生成のための改善された結果をもたらすことを示す。
また,拡散過程におけるガウス雑音の混合を用いることで,単一分布に基づく拡散過程における性能が向上することを示す。
論文 参考訳(メタデータ) (2021-06-14T16:42:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。