論文の概要: Universal Guidance for Diffusion Models
- arxiv url: http://arxiv.org/abs/2302.07121v1
- Date: Tue, 14 Feb 2023 15:30:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-15 15:18:50.623398
- Title: Universal Guidance for Diffusion Models
- Title(参考訳): 拡散モデルのためのユニバーサルガイダンス
- Authors: Arpit Bansal, Hong-Min Chu, Avi Schwarzschild, Soumyadip Sengupta,
Micah Goldblum, Jonas Geiping, Tom Goldstein
- Abstract要約: 本稿では,任意の誘導法により拡散モデルを制御できる汎用誘導アルゴリズムを提案する。
提案アルゴリズムは,セグメンテーション,顔認識,オブジェクト検出,分類器信号などのガイダンス機能を備えた高品質な画像を生成する。
- 参考スコア(独自算出の注目度): 54.99356512898613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Typical diffusion models are trained to accept a particular form of
conditioning, most commonly text, and cannot be conditioned on other modalities
without retraining. In this work, we propose a universal guidance algorithm
that enables diffusion models to be controlled by arbitrary guidance modalities
without the need to retrain any use-specific components. We show that our
algorithm successfully generates quality images with guidance functions
including segmentation, face recognition, object detection, and classifier
signals. Code is available at
https://github.com/arpitbansal297/Universal-Guided-Diffusion.
- Abstract(参考訳): 典型的な拡散モデルは、特定の形式の条件付けを受け付けるように訓練され、最も一般的なテキストは、再訓練なしに他のモダリティで条件付けできない。
本研究では,任意の誘導法により拡散モデルを制御できる汎用誘導アルゴリズムを提案する。
提案アルゴリズムは,セグメンテーション,顔認識,オブジェクト検出,分類器信号などのガイダンス機能を備えた高品質な画像を生成する。
コードはhttps://github.com/arpitbansal297/Universal-Guided-Diffusionで入手できる。
関連論文リスト
- Generating, Reconstructing, and Representing Discrete and Continuous
Data: Generalized Diffusion with Learnable Encoding-Decoding [93.21419651109322]
学習可能なエンコーダデコーダ(DiLED)による一般化拡散を導入する。
DiLEDはパラメタライズされた符号化復号を導入することにより、標準拡散におけるガウス雑音化を一般化する。
テキスト、タンパク質、画像の実験では、多様なデータやタスクを扱うためのDiLEDの柔軟性が示されている。
論文 参考訳(メタデータ) (2024-02-29T10:08:57Z) - Guided Diffusion from Self-Supervised Diffusion Features [49.78673164423208]
ガイダンスは拡散モデルにおいて重要な概念として機能するが、その効果は追加のデータアノテーションや事前学習の必要性によって制限されることが多い。
本稿では,拡散モデルからガイダンスを抽出するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-14T11:19:11Z) - Generative Diffusion From An Action Principle [0.0]
スコアマッチングは、物理でよく用いられるようなアクション原理から導出できることを示す。
この洞察を用いて、異なる拡散モデルのクラス間の関係を実証する。
論文 参考訳(メタデータ) (2023-10-06T18:00:00Z) - Generative Steganography Diffusion [42.60159212701425]
Generative steganography (GS) はシークレットデータから直接ステゴ画像を生成する新しい技術である。
既存のGSメソッドでは、ネットワークの可逆性が欠如しているため、隠されたシークレットデータが完全に復元できない。
我々は「StegoDiffusion」と呼ばれる可逆拡散モデルを考案し、GSD(Generative Steganography Diffusion)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-05T12:29:22Z) - Denoising Diffusion Autoencoders are Unified Self-supervised Learners [58.194184241363175]
本稿では,拡散モデルにおけるネットワーク,すなわち拡散オートエンコーダ(DDAE)が,自己教師型学習者の統合であることを示す。
DDAEはすでに、補助エンコーダを使わずに、中間層内で線形分離可能な表現を強く学習している。
CIFAR-10 と Tiny-ImageNet の線形評価精度は95.9% と 50.0% である。
論文 参考訳(メタデータ) (2023-03-17T04:20:47Z) - Uncovering the Disentanglement Capability in Text-to-Image Diffusion
Models [60.63556257324894]
画像生成モデルの重要な特性は、異なる属性をアンタングルする能力である。
本稿では,2つのテキスト埋め込みの混合重みをスタイルマッチングとコンテンツ保存に最適化した,シンプルで軽量な画像編集アルゴリズムを提案する。
実験により,提案手法は拡散モデルに基づく画像編集アルゴリズムよりも優れた性能で,幅広い属性を修正可能であることが示された。
論文 参考訳(メタデータ) (2022-12-16T19:58:52Z) - Towards Practical Plug-and-Play Diffusion Models [19.846094740800254]
拡散に基づく生成モデルは、画像生成において顕著な成功を収めた。
市販の市販オフザシェルフモデルのガイダンスへの直接的使用は、ノイズの多い入力のパフォーマンスが低かったために失敗する。
既存のプラクティスは、ノイズで汚染されたラベル付きデータでガイダンスモデルを微調整することです。
論文 参考訳(メタデータ) (2022-12-12T15:29:46Z) - Self-Guided Diffusion Models [53.825634944114285]
自己誘導拡散モデルのためのフレームワークを提案する。
本手法は,様々な画像粒度の誘導信号を提供する。
単ラベルおよび複数ラベルの画像データセットに対する実験により、自己ラベル付きガイダンスは誘導なしで拡散モデルより常に優れていることが示された。
論文 参考訳(メタデータ) (2022-10-12T17:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。