論文の概要: Dynamic Negative Guidance of Diffusion Models
- arxiv url: http://arxiv.org/abs/2410.14398v1
- Date: Fri, 18 Oct 2024 12:02:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:25:10.868697
- Title: Dynamic Negative Guidance of Diffusion Models
- Title(参考訳): 拡散モデルの動的負誘導
- Authors: Felix Koulischer, Johannes Deleu, Gabriel Raya, Thomas Demeester, Luca Ambrogioni,
- Abstract要約: 負のプロンプティング(NP)は、一定の指導尺度の仮定によって制限されていることを示す。
我々は、ほぼ最適時間とガイダンスの状態依存変調に依存する、Dynamic Negative Guidanceと呼ばれる原則的手法を導出する。
以上の結果から,DNGを安定拡散法を用いてNPよりも正確で侵襲的なガイダンスを得ることが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 13.873685216429868
- License:
- Abstract: Negative Prompting (NP) is widely utilized in diffusion models, particularly in text-to-image applications, to prevent the generation of undesired features. In this paper, we show that conventional NP is limited by the assumption of a constant guidance scale, which may lead to highly suboptimal results, or even complete failure, due to the non-stationarity and state-dependence of the reverse process. Based on this analysis, we derive a principled technique called Dynamic Negative Guidance, which relies on a near-optimal time and state dependent modulation of the guidance without requiring additional training. Unlike NP, negative guidance requires estimating the posterior class probability during the denoising process, which is achieved with limited additional computational overhead by tracking the discrete Markov Chain during the generative process. We evaluate the performance of DNG class-removal on MNIST and CIFAR10, where we show that DNG leads to higher safety, preservation of class balance and image quality when compared with baseline methods. Furthermore, we show that it is possible to use DNG with Stable Diffusion to obtain more accurate and less invasive guidance than NP.
- Abstract(参考訳): 負のプロンプティング(NP)は拡散モデル、特にテキスト・ツー・イメージ・アプリケーションにおいて、望ましくない特徴の発生を防ぐために広く利用されている。
本稿では,従来のNPは,逆過程の非定常性や状態依存性のため,高い最適結果,あるいは完全な失敗につながる可能性のある,一定のガイダンス尺度の仮定によって制限されていることを示す。
この分析に基づいて、我々は、トレーニングを必要とせず、ほぼ最適時間と状態依存によるガイダンスの調整に依存する、Dynamic Negative Guidanceと呼ばれる原則的手法を導出する。
NPとは異なり、負のガイダンスは、生成過程中に離散マルコフ連鎖を追跡することによって、計算オーバーヘッドが制限された後続のクラス確率を推定する必要がある。
MNIST と CIFAR10 における DNG のクラス除去性能を評価し,DNG が基準法と比較して高い安全性, クラスバランス, 画像品質をもたらすことを示した。
さらに,DNGを安定拡散法で使用することにより,NPよりも精度が高く,侵襲的なガイダンスが得られないことが示唆された。
関連論文リスト
- Observation-Guided Diffusion Probabilistic Models [41.749374023639156]
観測誘導拡散確率モデル(OGDM)と呼ばれる新しい拡散に基づく画像生成法を提案する。
本手法は,観測プロセスの指導をマルコフ連鎖と統合することにより,トレーニング目標を再構築する。
本研究では,強力な拡散モデルベースライン上での多様な推論手法を用いたトレーニングアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2023-10-06T06:29:06Z) - Effective Learning with Node Perturbation in Multi-Layer Neural Networks [2.1168858935852013]
node perturbation (NP) は、ネットワークアクティベーションにノイズを注入することで学習を提案する。
NPは、非誘導ノイズに基づく探索プロセスのため、データ非効率で不安定である。
各層での入力デコリレーションと指向性デリバティブとの密接なアライメントはNP学習の性能を強く向上させる。
論文 参考訳(メタデータ) (2023-10-02T08:12:51Z) - Regularizing with Pseudo-Negatives for Continual Self-Supervised Learning [62.40718385934608]
効果的な継続型自己教師型学習(CSSL)のためのPNR(Pseudo-Negative Regularization)フレームワークを提案する。
我々のPNRは,新たに学習した表現が過去の学習と矛盾しないように,モデルに基づく拡張によって得られた擬陰性情報を活用する。
論文 参考訳(メタデータ) (2023-06-08T10:59:35Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z) - Adversarially Contrastive Estimation of Conditional Neural Processes [39.77675002999259]
条件付きニューラルプロセス(CNP)は関数上の分布を定式化し、正確な条件付き確率で関数観測を生成する。
我々は,正規最大推定値以外の逆トレーニング方式でCNPを校正する手法を提案する。
生成関数再構成から下流回帰および分類タスクに至るまで,本手法が主流のCNPメンバーに適合することが実証された。
論文 参考訳(メタデータ) (2023-03-23T02:58:14Z) - Attentive Contractive Flow with Lipschitz-constrained Self-Attention [25.84621883831624]
注意的収縮フロー(ACF)と呼ばれる新しいアプローチを導入する。
ACFは、フローベースの生成モデル - 収縮フロー - の特別なカテゴリを利用する。
我々は, ACFをプラグアンドプレイ方式で, 各種のアートフローモデルに導入できることを実証した。
論文 参考訳(メタデータ) (2021-09-24T18:02:49Z) - Positive-Negative Momentum: Manipulating Stochastic Gradient Noise to
Improve Generalization [89.7882166459412]
勾配雑音(SGN)は、ディープラーニングの暗黙の正規化として機能する。
深層学習を改善するためにランダムノイズを注入してSGNを人工的にシミュレートしようとした作品もある。
低計算コストでSGNをシミュレーションし、学習率やバッチサイズを変更することなく、PNM(Positive-Negative Momentum)アプローチを提案する。
論文 参考訳(メタデータ) (2021-03-31T16:08:06Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Noisy Recurrent Neural Networks [45.94390701863504]
入力データによって駆動される微分方程式の離散化として,隠れ状態に雑音を注入することによって訓練されたリカレントニューラルネットワーク(RNN)について検討する。
合理的な仮定の下では、この暗黙の正則化はより平坦なミニマムを促進し、より安定な力学を持つモデルに偏りを呈し、分類タスクではより大きな分類マージンを持つモデルを好む。
本理論は, 各種入力摂動に対するロバスト性の向上と, 最先端性能の維持を両立させる実証実験により支持された。
論文 参考訳(メタデータ) (2021-02-09T15:20:50Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。