論文の概要: Conditional Image Generation with Pretrained Generative Model
- arxiv url: http://arxiv.org/abs/2312.13253v1
- Date: Wed, 20 Dec 2023 18:27:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 14:28:44.658924
- Title: Conditional Image Generation with Pretrained Generative Model
- Title(参考訳): 事前制約付き生成モデルによる条件画像生成
- Authors: Rajesh Shrestha, Bowen Xie
- Abstract要約: 拡散モデルは、GANモデルと比較して高品質な画像を生成する能力で人気を集めている。
これらのモデルには膨大な量のデータ、計算資源、そして訓練を成功させるために巧妙なチューニングが必要である。
本研究では,条件付き画像生成のために,事前学習した非条件拡散モデルを活用する手法を提案する。
- 参考スコア(独自算出の注目度): 1.4685355149711303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, diffusion models have gained popularity for their ability to
generate higher-quality images in comparison to GAN models. However, like any
other large generative models, these models require a huge amount of data,
computational resources, and meticulous tuning for successful training. This
poses a significant challenge, rendering it infeasible for most individuals. As
a result, the research community has devised methods to leverage pre-trained
unconditional diffusion models with additional guidance for the purpose of
conditional image generative. These methods enable conditional image
generations on diverse inputs and, most importantly, circumvent the need for
training the diffusion model. In this paper, our objective is to reduce the
time-required and computational overhead introduced by the addition of guidance
in diffusion models -- while maintaining comparable image quality. We propose a
set of methods based on our empirical analysis, demonstrating a reduction in
computation time by approximately threefold.
- Abstract(参考訳): 近年,GANモデルと比較して高品質な画像を生成する能力で拡散モデルが人気を集めている。
しかし、他の大きな生成モデルと同様に、これらのモデルはトレーニングを成功させるために大量のデータ、計算資源、精巧なチューニングを必要とする。
これは大きな課題であり、ほとんどの個人にとって実現不可能である。
その結果、研究コミュニティは、条件付き画像生成のために、事前訓練された無条件拡散モデルを活用する方法を考案した。
これらの手法は多様な入力に対して条件付き画像生成を可能にし、最も重要なのは拡散モデルの訓練の必要性を回避することである。
本稿では,拡散モデルにおけるガイダンスの追加によって生じる時間的・計算的オーバーヘッドを低減し,画像品質を同等に維持することを目的とする。
本研究では,経験的解析に基づく一連の手法を提案し,計算時間を約3倍に短縮することを示す。
関連論文リスト
- Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
拡散モデルは、大規模な生成画像モデルの分野を支配してきた。
本研究では,大規模な事前学習拡散モデルにおける高速拘束サンプリングのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Upsample Guidance: Scale Up Diffusion Models without Training [0.0]
事前学習した拡散モデルを適用して高解像度画像を生成する手法であるアップサンプルガイダンスを導入する。
注目すべきは、このテクニックは追加のトレーニングや外部モデルへの依存を必要としないことだ。
アップサンプルガイダンスは,画素空間,潜時空間,ビデオ拡散モデルなど,様々なモデルに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-04-02T07:49:08Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Large-scale Reinforcement Learning for Diffusion Models [30.164571425479824]
テキストと画像の拡散モデルは、Webスケールのテキストと画像のトレーニングペアから生じる暗黙のバイアスに影響を受けやすい。
強化学習(Reinforcement Learning, RL)を用いて, 拡散モデルの改善に有効なスケーラブルアルゴリズムを提案する。
提案手法は,従来の拡散モデルと人間の嗜好を整合させる手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-20T08:10:43Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Conditional Generation from Unconditional Diffusion Models using
Denoiser Representations [94.04631421741986]
本稿では,学習したデノイザネットワークの内部表現を用いて,事前学習した非条件拡散モデルを新しい条件に適用することを提案する。
提案手法により生成した合成画像を用いたTiny ImageNetトレーニングセットの強化により,ResNetベースラインの分類精度が最大8%向上することを示す。
論文 参考訳(メタデータ) (2023-06-02T20:09:57Z) - Extracting Training Data from Diffusion Models [77.11719063152027]
拡散モデルはトレーニングデータから個々の画像を記憶し,生成時に出力することを示す。
生成とフィルタのパイプラインを用いて、最先端のモデルから数千以上のトレーニング例を抽出する。
さまざまな設定で何百もの拡散モデルをトレーニングし、モデリングとデータ決定の違いがプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-30T18:53:09Z) - On Distillation of Guided Diffusion Models [94.95228078141626]
そこで本研究では,分類器を含まない誘導拡散モデルから抽出し易いモデルへ抽出する手法を提案する。
画素空間上で訓練された標準拡散モデルに対して,本手法は元のモデルに匹敵する画像を生成することができる。
遅延空間で訓練された拡散モデル(例えば、安定拡散)に対して、我々の手法は1から4段階のデノナイジングステップで高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T18:03:56Z) - Diffusion Models: A Comprehensive Survey of Methods and Applications [10.557289965753437]
拡散モデル(英: Diffusion model)は、密度理論の確立を伴う様々なタスクにおいて印象的な結果を示す深層生成モデルのクラスである。
近年,拡散モデルの性能向上への熱意が高まっている。
論文 参考訳(メタデータ) (2022-09-02T02:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。