論文の概要: ProtoDiffusion: Classifier-Free Diffusion Guidance with Prototype
Learning
- arxiv url: http://arxiv.org/abs/2307.01924v1
- Date: Tue, 4 Jul 2023 21:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 15:53:09.403654
- Title: ProtoDiffusion: Classifier-Free Diffusion Guidance with Prototype
Learning
- Title(参考訳): ProtoDiffusion: 原型学習による分類自由拡散指導
- Authors: Gulcin Baykal, Halil Faruk Karagoz, Taha Binhuraib, Gozde Unal
- Abstract要約: 本研究では,拡散モデルにプロトタイプ学習を組み込んで,拡散モデルよりも高速な生成品質を実現する。
ProtoDiffusionと呼ばれる本手法は,ベースライン法に比べて早期の訓練において優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion models are generative models that have shown significant advantages
compared to other generative models in terms of higher generation quality and
more stable training. However, the computational need for training diffusion
models is considerably increased. In this work, we incorporate prototype
learning into diffusion models to achieve high generation quality faster than
the original diffusion model. Instead of randomly initialized class embeddings,
we use separately learned class prototypes as the conditioning information to
guide the diffusion process. We observe that our method, called ProtoDiffusion,
achieves better performance in the early stages of training compared to the
baseline method, signifying that using the learned prototypes shortens the
training time. We demonstrate the performance of ProtoDiffusion using various
datasets and experimental settings, achieving the best performance in shorter
times across all settings.
- Abstract(参考訳): 拡散モデルは生成モデルであり、より高い世代品質とより安定したトレーニングという観点で、他の生成モデルと比較して大きな利点を示している。
しかし,拡散モデルの学習の必要性は大幅に増大した。
本研究では,プロトタイプ学習を拡散モデルに組み込んで,元の拡散モデルよりも高速に高次品質を実現する。
クラス埋め込みをランダムに初期化する代わりに、学習したクラスプロトタイプを条件付け情報として使用して拡散過程を導出する。
ProtoDiffusionと呼ばれる本手法は,ベースライン法と比較して訓練の初期段階で優れた性能を達成し,学習したプロトタイプを使用することでトレーニング時間を短縮することを示す。
様々なデータセットと実験的な設定を用いてProtoDiffusionの性能を実証し、すべての設定で短時間で最高のパフォーマンスを達成する。
関連論文リスト
- Plug-and-Play Diffusion Distillation [14.359953671470242]
誘導拡散モデルのための新しい蒸留手法を提案する。
オリジナルのテキスト・ツー・イメージモデルが凍結されている間、外部の軽量ガイドモデルがトレーニングされる。
提案手法は,クラス化なしガイド付きラテント空間拡散モデルの推論をほぼ半減することを示す。
論文 参考訳(メタデータ) (2024-06-04T04:22:47Z) - BEND: Bagging Deep Learning Training Based on Efficient Neural Network Diffusion [56.9358325168226]
BEND(Efficient Neural Network Diffusion)に基づくバッグング深層学習学習アルゴリズムを提案する。
我々のアプローチは単純だが効果的であり、まず複数のトレーニングされたモデルの重みとバイアスを入力として、オートエンコーダと潜伏拡散モデルを訓練する。
提案したBENDアルゴリズムは,元のトレーニングモデルと拡散モデルの両方の平均および中央値の精度を一貫して向上させることができる。
論文 参考訳(メタデータ) (2024-03-23T08:40:38Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Guided Flows for Generative Modeling and Decision Making [55.42634941614435]
その結果,ガイドフローは条件付き画像生成やゼロショット音声合成におけるサンプル品質を著しく向上させることがわかった。
特に、我々は、拡散モデルと比較して、オフライン強化学習設定axスピードアップにおいて、まず、計画生成にフローモデルを適用する。
論文 参考訳(メタデータ) (2023-11-22T15:07:59Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。