論文の概要: CCDM: Continuous Conditional Diffusion Models for Image Generation
- arxiv url: http://arxiv.org/abs/2405.03546v2
- Date: Wed, 26 Feb 2025 12:45:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:54:11.887688
- Title: CCDM: Continuous Conditional Diffusion Models for Image Generation
- Title(参考訳): CCDM:画像生成のための連続条件拡散モデル
- Authors: Xin Ding, Yongwei Wang, Kao Zhang, Z. Jane Wang,
- Abstract要約: 条件拡散モデル(CDM)は連続条件生成モデリング(CCGM)に代わる有望な選択肢を提供する
CDMは、特別に設計された条件拡散プロセス、新しいハード・ヴィジナル・イメージ・デノージング・ロス、効率的な条件サンプリング・プロシージャによる既存の制限に対処する。
CCDMは最先端のCCGMモデルより優れており,新たなベンチマークが確立されている。
- 参考スコア(独自算出の注目度): 22.70942688582302
- License:
- Abstract: Continuous Conditional Generative Modeling (CCGM) estimates high-dimensional data distributions, such as images, conditioned on scalar continuous variables (aka regression labels). While Continuous Conditional Generative Adversarial Networks (CcGANs) were designed for this task, their instability during adversarial learning often leads to suboptimal results. Conditional Diffusion Models (CDMs) offer a promising alternative, generating more realistic images, but their diffusion processes, label conditioning, and model fitting procedures are either not optimized for or incompatible with CCGM, making it difficult to integrate CcGANs' vicinal approach. To address these issues, we introduce Continuous Conditional Diffusion Models (CCDMs), the first CDM specifically tailored for CCGM. CCDMs address existing limitations with specially designed conditional diffusion processes, a novel hard vicinal image denoising loss, a customized label embedding method, and efficient conditional sampling procedures. Through comprehensive experiments on four datasets with resolutions ranging from 64x64 to 192x192, we demonstrate that CCDMs outperform state-of-the-art CCGM models, establishing a new benchmark. Ablation studies further validate the model design and implementation, highlighting that some widely used CDM implementations are ineffective for the CCGM task. Our code is publicly available at https://github.com/UBCDingXin/CCDM.
- Abstract(参考訳): 連続条件生成モデリング(CCGM)は、スカラー連続変数(回帰ラベル)に条件付された画像などの高次元データ分布を推定する。
CcGAN(Continuous Conditional Generative Adversarial Networks)がこのタスクのために設計されたが、その逆学習における不安定さは、しばしば準最適結果をもたらす。
条件付き拡散モデル(CDM)は、より現実的な画像を生成する、有望な代替手段を提供するが、その拡散過程、ラベル条件付け、モデル適合手順は、CCGMに最適化されていないか互換性がないため、CcGANのヴィジナルアプローチを統合するのが困難である。
これらの問題に対処するために,我々は,CCGMに特化された最初のCDMであるContinuous Conditional Diffusion Models (CCDMs)を紹介する。
CCDMは、特別に設計された条件拡散プロセス、新しいハード・ヴィジナル・イメージ・デノナイズド・ロス、カスタマイズされたラベル埋め込み方法、効率的な条件サンプリング手順の既存の制限に対処する。
64x64から192x192の解像度を持つ4つのデータセットの総合的な実験を通じて、CCDMが最先端のCCGMモデルを上回る性能を示し、新しいベンチマークを確立した。
アブレーション研究はモデル設計と実装をさらに検証し、広く使われているCDMの実装がCCGMタスクには有効でないことを強調した。
私たちのコードはhttps://github.com/UBCDingXin/CCDMで公開されています。
関連論文リスト
- Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Towards Model-Agnostic Dataset Condensation by Heterogeneous Models [13.170099297210372]
我々は,クロスモデル相互作用により,普遍的に適用可能なコンデンサ画像を生成する新しい手法を開発した。
モデルのコントリビューションのバランスとセマンティックな意味の密接な維持により,本手法は,モデル固有凝縮画像に関連する制約を克服する。
論文 参考訳(メタデータ) (2024-09-22T17:13:07Z) - Inverse design with conditional cascaded diffusion models [0.0]
随伴型設計最適化は通常計算コストが高く、それらのコストは分解能でスケールする。
我々は、条件付きカスケード拡散モデル(cCDM)の提案により、従来の生成モデルよりも拡散モデルの利用を拡大する。
本研究は,cCDMをcGANモデルと転写学習を比較した。
どちらのモデルも高分解能トレーニングデータを減らすことで性能が低下するが、cCDMは訓練データに制限がある場合、伝達学習を伴うcGANモデルよりも優れる。
論文 参考訳(メタデータ) (2024-08-16T04:54:09Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - How Realistic Is Your Synthetic Data? Constraining Deep Generative
Models for Tabular Data [57.97035325253996]
本稿では,制約付き深部生成モデル(C-DGM)をリアルな合成データモデルに変換する方法について述べる。
C-DGMは、制約によって表現される背景知識を活用して、標準知識より優れている。
論文 参考訳(メタデータ) (2024-02-07T13:22:05Z) - Class-Prototype Conditional Diffusion Model with Gradient Projection for Continual Learning [20.175586324567025]
破滅的な忘れ方を減らすことは、継続的な学習における重要なハードルである。
大きな問題は、生成したデータの品質がオリジナルのものと比べて低下することである。
本稿では,ジェネレータにおける画像品質を向上させる連続学習のためのGRに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-10T17:39:42Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。