論文の概要: Diffusion Models with Double Guidance: Generate with aggregated datasets
- arxiv url: http://arxiv.org/abs/2505.13213v1
- Date: Mon, 19 May 2025 14:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.680536
- Title: Diffusion Models with Double Guidance: Generate with aggregated datasets
- Title(参考訳): 二重誘導拡散モデル:集約されたデータセットによる生成
- Authors: Yanfeng Yang, Kenji Fukumizu,
- Abstract要約: 高性能な生成モデルをトレーニングするための大規模なデータセットは、特に関連する属性やアノテーションを提供する必要がある場合、しばしば違法に高価である。
これは、複数の属性を条件として共同で使用する場合、条件生成モデリングにおいて重要な課題となる。
そこで本研究では,訓練サンプルが全条件を同時に含まない場合でも,正確な条件生成を可能にする,二重誘導拡散モデルを提案する。
- 参考スコア(独自算出の注目度): 18.0878149546412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating large-scale datasets for training high-performance generative models is often prohibitively expensive, especially when associated attributes or annotations must be provided. As a result, merging existing datasets has become a common strategy. However, the sets of attributes across datasets are often inconsistent, and their naive concatenation typically leads to block-wise missing conditions. This presents a significant challenge for conditional generative modeling when the multiple attributes are used jointly as conditions, thereby limiting the model's controllability and applicability. To address this issue, we propose a novel generative approach, Diffusion Model with Double Guidance, which enables precise conditional generation even when no training samples contain all conditions simultaneously. Our method maintains rigorous control over multiple conditions without requiring joint annotations. We demonstrate its effectiveness in molecular and image generation tasks, where it outperforms existing baselines both in alignment with target conditional distributions and in controllability under missing condition settings.
- Abstract(参考訳): 高性能な生成モデルをトレーニングするための大規模なデータセットを作成することは、特に関連する属性やアノテーションを提供する必要がある場合、しばしば違法にコストがかかる。
その結果、既存のデータセットをマージすることが一般的な戦略となっている。
しかし、データセットをまたいだ属性のセットはしばしば一貫性がなく、その単純な結合は一般的にブロックワイドな条件を欠く。
これは、複数の属性を条件として共同で使用する場合の条件生成モデリングにおいて重要な課題であり、それによってモデルの可制御性と適用性を制限する。
そこで本研究では,訓練サンプルが同時にすべての条件を含まない場合でも,正確な条件生成が可能な拡散モデル(Diffusion Model)を提案する。
本手法は,ジョイントアノテーションを必要とせず,複数の条件に対する厳密な制御を継続する。
本研究は,分子・画像生成タスクにおいて,目標条件分布と制御性の両方において,既存のベースラインよりも優れることを示す。
関連論文リスト
- Bridging the inference gap in Mutimodal Variational Autoencoders [6.246098300155483]
マルチモーダル変分オートエンコーダは、観測されたモダリティから観測されていないモダリティを生成するための多目的でスケーラブルな方法を提供する。
エキスパートの混合集合を用いた最近のモデルは、複雑なデータセットにおける生成品質を制限する理論的に基礎的な制限に悩まされている。
本稿では,混合アグリゲーションを導入することなく,結合分布と条件分布の両方を学習できる新しい解釈可能なモデルを提案する。
論文 参考訳(メタデータ) (2025-02-06T10:43:55Z) - Diverse capability and scaling of diffusion and auto-regressive models when learning abstract rules [4.710921988115686]
本稿では, 有限標本から基礎となるルールを学習し, 条件付きサンプリングにより推論を行うことができるかを検討する。
RavenのProgressive Matricesタスクにインスパイアされた私たちは、各サンプルが3行からなるGenRAVENデータセットを設計しました。
我々は、データ分散を学ぶために生成モデルを訓練し、そこでサンプルを整数配列としてエンコードしてルール学習に集中させた。
論文 参考訳(メタデータ) (2024-11-12T15:29:50Z) - Generating the Traces You Need: A Conditional Generative Model for Process Mining Data [10.914597458295248]
条件付き変分オートエンコーダ(CVAE)に基づくプロセスデータ生成のための条件付きモデルを提案する。
プロセスマイニングのためのCVAEは、データの多面的性質と制御フロールールに従う必要性のために、特定の課題に直面している。
論文 参考訳(メタデータ) (2024-11-04T14:44:20Z) - Zero-Shot Conditioning of Score-Based Diffusion Models by Neuro-Symbolic Constraints [1.1826485120701153]
本研究では,事前学習した無条件スコアベース生成モデルを用いて,任意の論理的制約の下で条件分布からサンプルを抽出する手法を提案する。
ユーザ定義制約の非正規化分布条件から標本化するために,学習したスコアの操作方法を示す。
ソフト論理制約を符号化するための柔軟で数値的に安定なニューロシンボリック・フレームワークを定義する。
論文 参考訳(メタデータ) (2023-08-31T08:25:47Z) - Conditional Generation from Unconditional Diffusion Models using
Denoiser Representations [94.04631421741986]
本稿では,学習したデノイザネットワークの内部表現を用いて,事前学習した非条件拡散モデルを新しい条件に適用することを提案する。
提案手法により生成した合成画像を用いたTiny ImageNetトレーニングセットの強化により,ResNetベースラインの分類精度が最大8%向上することを示す。
論文 参考訳(メタデータ) (2023-06-02T20:09:57Z) - Breaking the Spurious Causality of Conditional Generation via Fairness
Intervention with Corrective Sampling [77.15766509677348]
条件生成モデルは、トレーニングデータセットから急激な相関を継承することが多い。
これは別の潜在属性に対して不均衡なラベル条件分布をもたらす。
この問題を緩和するための一般的な2段階戦略を提案する。
論文 参考訳(メタデータ) (2022-12-05T08:09:33Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - Maximum Likelihood on the Joint (Data, Condition) Distribution for
Solving Ill-Posed Problems with Conditional Flow Models [0.0]
所定のルールを用いてフローモデルをトレーニングするためのトリックを、最大限のサロゲートとして記述する。
これらの特性を、容易に視覚化された玩具問題に示し、その手法を用いて、クラス条件画像の生成に成功した。
論文 参考訳(メタデータ) (2022-08-24T21:50:25Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Conditional Hybrid GAN for Sequence Generation [56.67961004064029]
本稿では,この問題を解決するための条件付きハイブリッドGAN(C-Hybrid-GAN)を提案する。
我々はGumbel-Softmax法を利用して離散値列の分布を近似する。
提案したC-Hybrid-GANは、文脈条件付き離散値シーケンス生成において既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-18T03:52:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。