論文の概要: Efficient Transfer Learning in Diffusion Models via Adversarial Noise
- arxiv url: http://arxiv.org/abs/2308.11948v1
- Date: Wed, 23 Aug 2023 06:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 15:27:17.726090
- Title: Efficient Transfer Learning in Diffusion Models via Adversarial Noise
- Title(参考訳): 逆雑音による拡散モデルの効率的な伝達学習
- Authors: Xiyu Wang, Baijiong Lin, Daochang Liu, Chang Xu
- Abstract要約: 拡散確率モデル (DPM) は画像生成タスクにおいて大きな可能性を証明している。
GANのような以前の研究は、十分なデータで学習したトレーニング済みモデルを転送することで、限られたデータ問題に対処してきた。
限られたデータ問題に対処するために,新しいDPMに基づくトランスファー学習手法であるTANを提案する。
- 参考スコア(独自算出の注目度): 21.609168219488982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion Probabilistic Models (DPMs) have demonstrated substantial promise
in image generation tasks but heavily rely on the availability of large amounts
of training data. Previous works, like GANs, have tackled the limited data
problem by transferring pre-trained models learned with sufficient data.
However, those methods are hard to be utilized in DPMs since the distinct
differences between DPM-based and GAN-based methods, showing in the unique
iterative denoising process integral and the need for many timesteps with
no-targeted noise in DPMs. In this paper, we propose a novel DPMs-based
transfer learning method, TAN, to address the limited data problem. It includes
two strategies: similarity-guided training, which boosts transfer with a
classifier, and adversarial noise selection which adaptive chooses targeted
noise based on the input image. Extensive experiments in the context of
few-shot image generation tasks demonstrate that our method is not only
efficient but also excels in terms of image quality and diversity when compared
to existing GAN-based and DDPM-based methods.
- Abstract(参考訳): diffusion probabilistic models (dpms) は画像生成タスクにおいて有望であるが、大量のトレーニングデータの可用性に大きく依存している。
GANのような以前の研究は、十分なデータで学習したトレーニング済みモデルを転送することで、限られたデータ問題に対処してきた。
しかし、これらの手法はDPM法とGAN法との違いから、DPM法では利用が難しい。
本稿では,制限データ問題に対処する新しいDPMに基づくトランスファー学習手法であるTANを提案する。
これには、分類器による伝達を促進する類似性誘導訓練と、入力画像に基づいてターゲット雑音を選択する対向雑音選択の2つの戦略が含まれる。
画像生成タスクの文脈における広範囲な実験により,本手法は効率だけでなく,既存のGAN法やDDPM法と比較して画像品質や多様性も優れていることが示された。
関連論文リスト
- Improving Denoising Diffusion Probabilistic Models via Exploiting Shared
Representations [5.517338199249029]
SR-DDPMはノイズ拡散過程を逆転することで高品質な画像を生成する生成モデルのクラスである。
多様なデータ分布の類似性を利用して、画像の品質を損なうことなく、複数のタスクにスケールできる。
提案手法を標準画像データセット上で評価し、FIDとSSIMの指標で条件付きDDPMと条件付きDDPMの両方より優れていることを示す。
論文 参考訳(メタデータ) (2023-11-27T22:30:26Z) - Denoising Diffusion Bridge Models [54.87947768074036]
拡散モデルは、プロセスを使用してデータにノイズをマッピングする強力な生成モデルである。
画像編集のような多くのアプリケーションでは、モデル入力はランダムノイズではない分布から来る。
本研究では, DDBM(Denoising Diffusion Bridge Models)を提案する。
論文 参考訳(メタデータ) (2023-09-29T03:24:24Z) - Diffusion Model as Representation Learner [86.09969334071478]
Diffusion Probabilistic Models (DPMs) は、最近、様々な生成タスクにおいて顕著な結果を示した。
本稿では,DPMが獲得した知識を認識タスクに活用する新しい知識伝達手法を提案する。
論文 参考訳(メタデータ) (2023-08-21T00:38:39Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - Post-training Quantization on Diffusion Models [14.167428759401703]
拡散(スコアベース)生成モデルは近年、現実的で多様なデータを生成する上で大きな成果を上げている。
これらの手法は、データをノイズに変換する前方拡散プロセスと、ノイズからデータをサンプリングする後方デノナイジングプロセスを定義する。
残念なことに、長い反復的雑音推定のため、現在のデノナイジング拡散モデルの生成過程は明らかに遅い。
論文 参考訳(メタデータ) (2022-11-28T19:33:39Z) - Few-shot Image Generation with Diffusion Models [18.532357455856836]
拡散確率モデル(DDPM)は、大量のデータに基づいて訓練された際に、顕著な多様性で高品質な画像を合成できることが証明されている。
現代のアプローチは、主にGAN(Generative Adversarial Networks)とAdapted Model(Adapted Model)に基づいて構築されている。
本稿では, DDPMが過度に適合し, トレーニングデータが不足するにつれて, 高度に多様性が低下する事例について検討する。
論文 参考訳(メタデータ) (2022-11-07T02:18:27Z) - Blind Image Deblurring with Unknown Kernel Size and Substantial Noise [1.346207204106034]
BID (Blind Image Deblurring) はコンピュータビジョンや周辺分野で広く研究されている。
本稿では, 両者に対して安定な実用的BID手法を提案する。
提案手法は,物理モデルと構造化深層ニューラルネットワークを統合することで,逆問題を解決するという最近の考え方に基づいている。
論文 参考訳(メタデータ) (2022-08-18T17:24:45Z) - Accelerating Diffusion Models via Early Stop of the Diffusion Process [114.48426684994179]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な世代タスクにおいて優れたパフォーマンスを実現している。
実際には、DDPMは高品質なサンプルを得るために何十万ものデノナイジングステップを必要とすることが多い。
本稿では,DDPMの早期停止型DDPM(Early-Stopped DDPM, ES-DDPM)の原理的高速化戦略を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:40:09Z) - Robust Face Anti-Spoofing with Dual Probabilistic Modeling [49.14353429234298]
本稿では、DPM-LQ(ラベル品質認識学習)とDPM-DQ(データ品質認識学習)という2つの専用モジュールを備えたDPM(Dual Probabilistic Modeling)という統合フレームワークを提案する。
DPM-LQは、ノイズのあるセマンティックラベルの分布に過度に適合することなく、ロバストな特徴表現を生成することができる。
DPM-DQは、その品質分布に基づいてノイズデータの予測信頼度を補正することにより、推論中のFalse Reject'およびFalse Accept'からデータノイズを除去することができる。
論文 参考訳(メタデータ) (2022-04-27T03:44:18Z) - Denoising Diffusion Implicit Models [117.03720513930335]
DDPMと同様の訓練手順を施した反復的暗黙的確率モデルに対して,拡散暗黙モデル(DDIM)を提案する。
DDIMsは、DDPMsと比較して、壁面時間で10倍から50倍高速な高品質のサンプルを作成できる。
論文 参考訳(メタデータ) (2020-10-06T06:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。