論文の概要: Generating High Fidelity Data from Low-density Regions using Diffusion
Models
- arxiv url: http://arxiv.org/abs/2203.17260v1
- Date: Thu, 31 Mar 2022 17:56:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 14:14:07.350302
- Title: Generating High Fidelity Data from Low-density Regions using Diffusion
Models
- Title(参考訳): 拡散モデルを用いた低密度領域からの高精度データ生成
- Authors: Vikash Sehwag, Caner Hazirbas, Albert Gordo, Firat Ozgenel, Cristian
Canton Ferrer
- Abstract要約: 拡散過程に基づく生成モデルを用いて,低密度領域からの新規画像の合成を行う。
合成データの忠実度を同時に維持しながら,低密度領域へ誘導するサンプリングプロセスを修正した。
- 参考スコア(独自算出の注目度): 15.819414178363571
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our work focuses on addressing sample deficiency from low-density regions of
data manifold in common image datasets. We leverage diffusion process based
generative models to synthesize novel images from low-density regions. We
observe that uniform sampling from diffusion models predominantly samples from
high-density regions of the data manifold. Therefore, we modify the sampling
process to guide it towards low-density regions while simultaneously
maintaining the fidelity of synthetic data. We rigorously demonstrate that our
process successfully generates novel high fidelity samples from low-density
regions. We further examine generated samples and show that the model does not
memorize low-density data and indeed learns to generate novel samples from
low-density regions.
- Abstract(参考訳): 本研究は、共通画像データセットにおけるデータ多様体の低密度領域からのサンプル不足への対処に焦点を当てる。
拡散過程に基づく生成モデルを用いて低密度領域からの新規画像の合成を行う。
データ多様体の高密度領域からの拡散モデルからの均一サンプリングを主に観察する。
そこで,合成データの忠実性を維持しつつ,低密度領域へ導くためにサンプリングプロセスを変更した。
我々は,このプロセスが低密度領域から新しい高忠実度サンプルを生成することに成功したことを厳密に証明した。
さらに, 生成した試料について検討し, 低密度データを記憶せず, 低密度領域から新しい試料を生成できることを示した。
関連論文リスト
- Risk-Sensitive Diffusion: Learning the Underlying Distribution from
Noisy Samples [65.95306174480034]
拡散モデルはノイズのあるサンプルの存在に対して脆弱であることを示す。
ノイズサンプルの分布を調整するために,リスク感応性SDEを導入する。
本モデルでは,ノイズのあるサンプルからクリーンなデータ分布を効果的に回収することを示す。
論文 参考訳(メタデータ) (2024-02-03T08:41:51Z) - Fast Sampling via De-randomization for Discrete Diffusion Models [52.554915711265856]
本稿では, 離散拡散モデルの高速化に繋がる非ランダム化拡散過程を提案する。
提案手法は, ニューラルネットワークに対する関数評価の回数を大幅に削減し, サンプリング処理を高速化する。
自然言語生成および機械翻訳タスクの実験は,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - On the Limitation of Diffusion Models for Synthesizing Training Datasets [5.384630221560811]
本稿では, 実試料から再構成した合成試料を拡散・逆過程により解析することにより, 合成試料と実試料とのギャップを解明する。
その結果, 合成データセットは, 最先端拡散モデルを用いても, 実際のデータセットの分類性能を低下させることがわかった。
論文 参考訳(メタデータ) (2023-11-22T01:42:23Z) - DiffuSeq-v2: Bridging Discrete and Continuous Text Spaces for
Accelerated Seq2Seq Diffusion Models [58.450152413700586]
ガウス空間に基づく離散突然変異を再構成する学習において拡散モデルを容易にする軟吸収状態を導入する。
我々は、サンプリングプロセスの高速化のために、連続空間内で最先端のODEソルバを用いている。
提案手法は, トレーニング収束率を4倍に向上させ, 類似品質のサンプルを800倍高速に生成する。
論文 参考訳(メタデータ) (2023-10-09T15:29:10Z) - Expressiveness Remarks for Denoising Diffusion Models and Samplers [2.5137859989323537]
微分拡散モデル(Denoising diffusion model)は、最近多くの領域で最先端の結果を得た生成モデルのクラスである。
我々は、F"ollmer flow"に似た既知の接続を利用して、F"ollmer drift"の確立されたニューラルネットワーク近似結果を拡張し、拡散モデルとサンプリング器をデノナイズする。
論文 参考訳(メタデータ) (2023-05-16T16:56:19Z) - Don't Play Favorites: Minority Guidance for Diffusion Models [59.75996752040651]
本稿では,拡散モデルの生成過程をマイノリティ標本に集中させる新しい枠組みを提案する。
我々は、所望の確率レベルを持つ領域に向けて生成過程をガイドできるサンプリング技術であるマイノリティガイダンスを開発する。
論文 参考訳(メタデータ) (2023-01-29T03:08:47Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Self-Diagnosing GAN: Diagnosing Underrepresented Samples in Generative
Adversarial Networks [5.754152248672317]
本研究では,GAN (Generative Adversarial Networks) のトレーニング中に未表現のサンプルを診断し強調する手法を提案する。
本研究では, 下表の試料が平均差が高いか, ばらつきが高いかの観察から, それらの試料を強調する方法を提案する。
実験により,提案手法は各種データセット上でのGAN性能の向上を実証した。
論文 参考訳(メタデータ) (2021-02-24T02:31:50Z) - Learning Energy-Based Models by Diffusion Recovery Likelihood [61.069760183331745]
本稿では,エネルギーベースモデルから気軽に学習・サンプルできる拡散回復可能性法を提案する。
学習後、ガウスの白色雑音分布から初期化するサンプリングプロセスにより合成画像を生成することができる。
非条件 CIFAR-10 では,本手法は FID 9.58 と開始スコア 8.30 を達成する。
論文 参考訳(メタデータ) (2020-12-15T07:09:02Z) - Instance Selection for GANs [25.196177369030146]
GAN(Generative Adversarial Networks)は、高品質な合成画像を生成するために広く採用されている。
GANはしばしばデータ多様体の外にある非現実的なサンプルを生成する。
本稿では,サンプルの品質向上のための新しいアプローチを提案する。モデルトレーニングが行われる前に,インスタンス選択によるトレーニングデータセットの変更を行う。
論文 参考訳(メタデータ) (2020-07-30T06:33:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。