論文の概要: Enhancing Creative Generation on Stable Diffusion-based Models
- arxiv url: http://arxiv.org/abs/2503.23538v1
- Date: Sun, 30 Mar 2025 17:46:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 19:35:57.180686
- Title: Enhancing Creative Generation on Stable Diffusion-based Models
- Title(参考訳): 安定拡散モデルによる創造的生成の促進
- Authors: Jiyeon Han, Dahee Kwon, Gayoung Lee, Junho Kim, Jaesik Choi,
- Abstract要約: C3は、安定拡散モデルにおける創造性を高めるために設計されたトレーニング不要のアプローチである。
より創造的なアウトプットを育むために、Denoisingプロセス中の機能を選択的に増幅する。
大規模な計算コストを伴わずに拡散モデルの創造性を向上する最初の研究である。
- 参考スコア(独自算出の注目度): 28.44148706022059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent text-to-image generative models, particularly Stable Diffusion and its distilled variants, have achieved impressive fidelity and strong text-image alignment. However, their creative capability remains constrained, as including `creative' in prompts seldom yields the desired results. This paper introduces C3 (Creative Concept Catalyst), a training-free approach designed to enhance creativity in Stable Diffusion-based models. C3 selectively amplifies features during the denoising process to foster more creative outputs. We offer practical guidelines for choosing amplification factors based on two main aspects of creativity. C3 is the first study to enhance creativity in diffusion models without extensive computational costs. We demonstrate its effectiveness across various Stable Diffusion-based models.
- Abstract(参考訳): 最近のテキスト・ツー・イメージ生成モデル、特に安定拡散とその蒸留変種は、印象的な忠実さと強力なテキスト・イメージアライメントを実現している。
しかしながら、'創造的'を含む創造的な能力は、望まれる結果をもたらすことはめったにない。
本稿では,C3 (Creative Concept Catalyst) について紹介する。
C3は、より創造的なアウトプットを育むために、denoisingプロセス中の機能を選択的に増幅する。
クリエイティビティの2つの主要な側面に基づいて増幅因子を選択するための実践的ガイドラインを提供する。
C3は、広範な計算コストを伴わずに拡散モデルの創造性を向上する最初の研究である。
安定拡散モデルにおける有効性を示す。
関連論文リスト
- Acc3D: Accelerating Single Image to 3D Diffusion Models via Edge Consistency Guided Score Distillation [49.202383675543466]
本稿では,単一画像から3次元モデルを生成する拡散過程の高速化に取り組むために,Acc3Dを提案する。
数段階の推論によって高品質な再構成を導出するため,ランダムノイズ状態におけるスコア関数の学習を規則化する上で重要な課題を強調した。
論文 参考訳(メタデータ) (2025-03-20T09:18:10Z) - Untapped Potential in Self-Optimization of Hopfield Networks: The Creativity of Unsupervised Learning [0.6144680854063939]
我々は、自己最適化(SO)モデルが創造的プロセスに必要な十分な条件を満たすことを論じる。
確率以上の創造的な結果を見つけるためには,学習が必要であることを示す。
論文 参考訳(メタデータ) (2024-12-10T11:58:39Z) - Structured Pattern Expansion with Diffusion Models [6.726377308248659]
拡散モデルの最近の進歩は、材料、テクスチャ、および3次元形状の合成を著しく改善した。
本稿では、拡散モデルが一般に信頼性が低く、より重要なことに、制御不能な構造的定常パターンの合成に対処する。
これにより、ユーザは入力の構造と詳細を保存しながら、部分的に手書きのパターンをより大きなデザインに拡張することで、合成を直接制御することができる。
論文 参考訳(メタデータ) (2024-11-12T18:39:23Z) - Creativity Has Left the Chat: The Price of Debiasing Language Models [1.223779595809275]
大規模言語モデル(LLM)の創造性に対する人間からのフィードバックからの強化学習の意図しない結果について検討する。
我々の発見は、コピーライティング、広告作成、顧客ペルソナ生成といったクリエイティブなタスクにLLMを頼っているマーケターにとって大きな意味を持つ。
論文 参考訳(メタデータ) (2024-06-08T22:14:51Z) - Kaleido Diffusion: Improving Conditional Diffusion Models with Autoregressive Latent Modeling [49.41822427811098]
本稿では, 自己回帰性潜伏前駆体を組み込むことにより, サンプルの多様性を高める新しいアプローチであるKaleidoを紹介する。
Kaleidoは、オリジナルのキャプションをエンコードして潜伏変数を生成する自動回帰言語モデルを統合する。
そこで我々は,Kaleidoが生成した潜在変数のガイダンスに忠実に従属していることを示し,画像生成過程を効果的に制御し,指示する能力を示す。
論文 参考訳(メタデータ) (2024-05-31T17:41:11Z) - Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - A New Creative Generation Pipeline for Click-Through Rate with Stable
Diffusion Model [8.945197427679924]
従来のAIベースのアプローチは、デザイナーからの美的知識を限定しながら、ユーザー情報を考慮しないという同じ問題に直面している。
結果を最適化するために、従来の方法で生成されたクリエイティブは、クリエイティブランキングモデルと呼ばれる別のモジュールによってランク付けされる。
本稿では,クリエイティビティ生成段階においてCTRを改善することを目的とした,Click-Through Rate (CG4CTR) のための新しいCreative Generationパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-17T03:27:39Z) - Morphable Diffusion: 3D-Consistent Diffusion for Single-image Avatar Creation [14.064983137553353]
我々は、制御可能な光リアルな人間のアバターを作成するために、生成拡散モデルの品質と機能を高めることを目的としている。
我々は,3次元形態素モデルを最先端の多視点拡散手法に統合することで実現した。
提案するフレームワークは, 完全3次元一貫性, アニマタブル, フォトリアリスティックな人間のアバターの作成を可能にする最初の拡散モデルである。
論文 参考訳(メタデータ) (2024-01-09T18:59:04Z) - AdBooster: Personalized Ad Creative Generation using Stable Diffusion
Outpainting [7.515971669919419]
デジタル広告において、最適項目(勧告)と最良の創造的プレゼンテーション(創造的最適化)の選択は伝統的に別分野とみなされてきた。
本稿では、ユーザの興味を取り入れたクリエイティブ生成のための生成モデルのタスクを紹介し、パーソナライズされた広告クリエイティビティのためのモデルであるAdBoosterを形作る。
論文 参考訳(メタデータ) (2023-09-08T12:57:05Z) - SinDiffusion: Learning a Diffusion Model from a Single Natural Image [159.4285444680301]
SinDiffusionは1つの自然な画像からパッチの内部分布を捉えるためにデノナイズ拡散モデルを利用する。
SinDiffusionは、2つのコア設計に基づいている。まず、SinDiffusionは、段階的にスケールが成長する複数のモデルではなく、1つのスケールで1つのモデルで訓練されている。
第2に,拡散ネットワークのパッチレベルの受容領域は,画像のパッチ統計を捉える上で重要かつ効果的であることを示す。
論文 参考訳(メタデータ) (2022-11-22T18:00:03Z) - Structure-based Drug Design with Equivariant Diffusion Models [40.73626627266543]
本稿では,タンパク質ポケットに新しい条件を付加したSE(3)-同変拡散モデルDiffSBDDを提案する。
我々のサイリコ実験では、DiffSBDDが地上の真実データの統計を効果的に捉えていることが示されています。
これらの結果は、拡散モデルが従来の方法よりも正確に構造データの複雑な分布を表すという仮定を支持する。
論文 参考訳(メタデータ) (2022-10-24T15:51:21Z) - Towards Creativity Characterization of Generative Models via Group-based
Subset Scanning [64.6217849133164]
創造的プロセスを特定し,定量化し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセット全体にわたる通常のサンプルや非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2022-03-01T15:07:14Z) - Towards creativity characterization of generative models via group-based
subset scanning [51.84144826134919]
創造的プロセスを定量化し,検出し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセットをまたいだ通常または非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2021-04-01T14:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。