論文の概要: Boost-and-Skip: A Simple Guidance-Free Diffusion for Minority Generation
- arxiv url: http://arxiv.org/abs/2502.06516v1
- Date: Mon, 10 Feb 2025 14:37:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:36:34.503951
- Title: Boost-and-Skip: A Simple Guidance-Free Diffusion for Minority Generation
- Title(参考訳): Boost-and-Skip: マイノリティ生成のための単純なガイダンスフリー拡散
- Authors: Soobin Um, Beomsu Kim, Jong Chul Ye,
- Abstract要約: 拡散モデルを用いて少数サンプルを生成するために,Boost-and-Skipと呼ばれる強力なガイダンスのない手法を提案する。
これらの一見自明な修正は、確固たる理論と実証的な証拠によって支えられていることを強調する。
我々の実験は、Boost-and-Skipが少数サンプルを生成する能力を大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 57.19995625893062
- License:
- Abstract: Minority samples are underrepresented instances located in low-density regions of a data manifold, and are valuable in many generative AI applications, such as data augmentation, creative content generation, etc. Unfortunately, existing diffusion-based minority generators often rely on computationally expensive guidance dedicated for minority generation. To address this, here we present a simple yet powerful guidance-free approach called Boost-and-Skip for generating minority samples using diffusion models. The key advantage of our framework requires only two minimal changes to standard generative processes: (i) variance-boosted initialization and (ii) timestep skipping. We highlight that these seemingly-trivial modifications are supported by solid theoretical and empirical evidence, thereby effectively promoting emergence of underrepresented minority features. Our comprehensive experiments demonstrate that Boost-and-Skip greatly enhances the capability of generating minority samples, even rivaling guidance-based state-of-the-art approaches while requiring significantly fewer computations.
- Abstract(参考訳): マイノリティサンプルは、データ多様体の低密度領域に位置する、表現不足のインスタンスであり、データ拡張やクリエイティブコンテンツ生成など、多くの生成AIアプリケーションで有用である。
残念ながら、既存の拡散ベースのマイノリティジェネレータは、マイノリティ世代専用の計算コストの高いガイダンスに頼っていることが多い。
これを解決するために、拡散モデルを用いて少数サンプルを生成するためのBoost-and-Skipと呼ばれる単純なガイダンスのないアプローチを提案する。
私たちのフレームワークの重要な利点は、標準的な生成プロセスに2つの最小限の変更しか必要としないことです。
一 分散ブースト初期化及び初期化
(二)時限スキップ。
これらの一見自明な修正は、確固たる理論的および実証的な証拠によって支えられ、その結果、表現されていない少数民族の特徴の出現を効果的に促進する。
我々の総合的な実験により、Boost-and-Skipは少数サンプルを生成する能力を大幅に向上することを示した。
関連論文リスト
- Minority-Focused Text-to-Image Generation via Prompt Optimization [57.319845580050924]
本稿では,事前訓練されたテキスト・ツー・イメージ(T2I)潜時拡散モデルを用いて,少数サンプルの生成について検討する。
所望のプロパティの出現を促進するオンラインプロンプト最適化フレームワークを開発した。
次に、このジェネリックプロンプトを、マイノリティーな特徴の生成を促進する特殊な解決器に仕立てる。
論文 参考訳(メタデータ) (2024-10-10T11:56:09Z) - Self-Guided Generation of Minority Samples Using Diffusion Models [57.319845580050924]
データ多様体の低密度領域に居住する少数サンプルを生成するための新しい手法を提案する。
我々のフレームワークは拡散モデルに基づいて構築されており、ガイドドサンプリングの原理を生かしている。
実データセットのベンチマーク実験により、我々のアプローチは現実的な低自由度マイノリティインスタンスを作成する能力を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-07-16T10:03:29Z) - Chameleon: Foundation Models for Fairness-aware Multi-modal Data
Augmentation to Enhance Coverage of Minorities [25.215178019059874]
訓練データにおけるマイノリティの下位表現は、よく認識されている関心事である。
提案するChameleonは、最小限の設定を加えてデータセットを拡張して、表現されていないグループの範囲を拡大するシステムである。
提案アルゴリズムの有効性を確認するとともに,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-02T00:16:45Z) - Generative Oversampling for Imbalanced Data via Majority-Guided VAE [15.93867386081279]
本稿では,多数派の指導のもと,新たなマイノリティサンプルを生成する,Majority-Guided VAE(MGVAE)と呼ばれる新しいオーバーサンプリングモデルを提案する。
このようにして、新しく生成されたマイノリティサンプルは、大多数のサンプルの多様性と豊かさを継承することができ、下流タスクにおける過度な適合を軽減できる。
論文 参考訳(メタデータ) (2023-02-14T06:35:23Z) - Don't Play Favorites: Minority Guidance for Diffusion Models [59.75996752040651]
本稿では,拡散モデルの生成過程をマイノリティ標本に集中させる新しい枠組みを提案する。
我々は、所望の確率レベルを持つ領域に向けて生成過程をガイドできるサンプリング技術であるマイノリティガイダンスを開発する。
論文 参考訳(メタデータ) (2023-01-29T03:08:47Z) - Few-shot Forgery Detection via Guided Adversarial Interpolation [56.59499187594308]
既存の偽造検出手法は、見知らぬ新しい偽造手法に適用した場合、大幅な性能低下に悩まされる。
本稿では,数発の偽造検出問題を克服するために,GAI(Guid Adversarial Interpolation)を提案する。
我々の手法は、多数派と少数派の偽造アプローチの選択に対して堅牢であることが検証されている。
論文 参考訳(メタデータ) (2022-04-12T16:05:10Z) - Counterfactual-based minority oversampling for imbalanced classification [11.140929092818235]
不均衡な分類におけるオーバーサンプリングの重要な課題は、新しい少数派標本の生成が多数派クラスの使用を無視することが多いことである。
対物理論に基づく新しいオーバーサンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-21T14:13:15Z) - Inclusive GAN: Improving Data and Minority Coverage in Generative Models [101.67587566218928]
データカバレッジの1つとしてマイノリティー・インクルージョンの問題を定式化する。
次に、再構成世代と敵対的トレーニングを調和させることにより、データカバレッジを改善することを提案する。
我々は、モデルが確実に含めるべきマイノリティサブグループを明示的に制御できる拡張を開発する。
論文 参考訳(メタデータ) (2020-04-07T13:31:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。