論文の概要: Don't Play Favorites: Minority Guidance for Diffusion Models
- arxiv url: http://arxiv.org/abs/2301.12334v2
- Date: Mon, 26 Feb 2024 15:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 01:04:27.796958
- Title: Don't Play Favorites: Minority Guidance for Diffusion Models
- Title(参考訳): don't play favorites: 拡散モデルのためのマイノリティガイダンス
- Authors: Soobin Um, Suhyeon Lee, Jong Chul Ye
- Abstract要約: 本稿では,拡散モデルの生成過程をマイノリティ標本に集中させる新しい枠組みを提案する。
我々は、所望の確率レベルを持つ領域に向けて生成過程をガイドできるサンプリング技術であるマイノリティガイダンスを開発する。
- 参考スコア(独自算出の注目度): 59.75996752040651
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the problem of generating minority samples using diffusion models.
The minority samples are instances that lie on low-density regions of a data
manifold. Generating a sufficient number of such minority instances is
important, since they often contain some unique attributes of the data.
However, the conventional generation process of the diffusion models mostly
yields majority samples (that lie on high-density regions of the manifold) due
to their high likelihoods, making themselves ineffective and time-consuming for
the minority generating task. In this work, we present a novel framework that
can make the generation process of the diffusion models focus on the minority
samples. We first highlight that Tweedie's denoising formula yields favorable
results for majority samples. The observation motivates us to introduce a
metric that describes the uniqueness of a given sample. To address the inherent
preference of the diffusion models w.r.t. the majority samples, we further
develop minority guidance, a sampling technique that can guide the generation
process toward regions with desired likelihood levels. Experiments on benchmark
real datasets demonstrate that our minority guidance can greatly improve the
capability of generating high-quality minority samples over existing generative
samplers. We showcase that the performance benefit of our framework persists
even in demanding real-world scenarios such as medical imaging, further
underscoring the practical significance of our work. Code is available at
https://github.com/soobin-um/minority-guidance.
- Abstract(参考訳): 拡散モデルを用いてマイノリティサンプルを生成する問題を考察する。
マイノリティサンプルは、データ多様体の低密度領域にある例である。
このようなマイノリティなインスタンスを十分な数生成することは重要である。
しかし、拡散モデルの従来の生成過程は、その高い可能性のために多数サンプル(多様体の高密度領域にある)を主に生成し、少数生成タスクでは効率が悪く、時間を要する。
本稿では,拡散モデルの生成過程をマイノリティサンプルに焦点をあてた新しい枠組みを提案する。
まず,tweedieの分別式が多数サンプルに対して良好な結果をもたらすことを強調する。
この観察は、与えられたサンプルの特異性を記述する計量を導入する動機となる。
拡散モデル(拡散モデル)の本質的な嗜好に対処するため,本研究では,所望の確率レベルを持つ領域に向けて生成プロセスを導くサンプリング手法であるマイノリティガイダンスをさらに発展させる。
実データセットのベンチマーク実験により、我々のマイノリティーガイダンスは、既存のジェネレーティブサンプルよりも高品質なマイノリティーサンプルを生成する能力を大幅に改善できることが示された。
医療画像などの実世界のシナリオを要求された場合でも,我々のフレームワークのパフォーマンス上のメリットは持続し,作業の実用的意義をさらに強調する。
コードはhttps://github.com/soobin-um/minority-guidanceで入手できる。
関連論文リスト
- Self-Guided Generation of Minority Samples Using Diffusion Models [57.319845580050924]
データ多様体の低密度領域に居住する少数サンプルを生成するための新しい手法を提案する。
我々のフレームワークは拡散モデルに基づいて構築されており、ガイドドサンプリングの原理を生かしている。
実データセットのベンチマーク実験により、我々のアプローチは現実的な低自由度マイノリティインスタンスを作成する能力を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-07-16T10:03:29Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Reducing Training Sample Memorization in GANs by Training with
Memorization Rejection [80.0916819303573]
本稿では,トレーニング中のトレーニングサンプルのほぼ重複する生成サンプルを拒否する学習手法であるリジェクション記憶法を提案する。
我々のスキームは単純で汎用的であり、任意のGANアーキテクチャに直接適用することができる。
論文 参考訳(メタデータ) (2022-10-21T20:17:50Z) - Generating High Fidelity Data from Low-density Regions using Diffusion
Models [15.819414178363571]
拡散過程に基づく生成モデルを用いて,低密度領域からの新規画像の合成を行う。
合成データの忠実度を同時に維持しながら,低密度領域へ誘導するサンプリングプロセスを修正した。
論文 参考訳(メタデータ) (2022-03-31T17:56:25Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Improved Denoising Diffusion Probabilistic Models [4.919647298882951]
その結果,ddpmは高いサンプル品質を維持しつつ,競合的なログライク性を達成できることがわかった。
また,逆拡散過程の学習分散により,フォワードパスが桁違いに小さくサンプリングできることがわかった。
これらのモデルのサンプルの品質と可能性について,モデルのキャパシティとトレーニング計算でスムーズに拡張できることを示し,スケーラビリティを向上する。
論文 参考訳(メタデータ) (2021-02-18T23:44:17Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z) - Counterfactual-based minority oversampling for imbalanced classification [11.140929092818235]
不均衡な分類におけるオーバーサンプリングの重要な課題は、新しい少数派標本の生成が多数派クラスの使用を無視することが多いことである。
対物理論に基づく新しいオーバーサンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-21T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。