論文の概要: Text Embedding Knows How to Quantize Text-Guided Diffusion Models
- arxiv url: http://arxiv.org/abs/2507.10340v1
- Date: Mon, 14 Jul 2025 14:44:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:25.166669
- Title: Text Embedding Knows How to Quantize Text-Guided Diffusion Models
- Title(参考訳): テキスト埋め込みによるテキストガイド拡散モデルの定量化
- Authors: Hongjae Lee, Myungjun Son, Dongjea Kang, Seung-Won Jung,
- Abstract要約: テキストプロンプト(QLIP)を用いた言語間拡散モデルの量子化という新しい量子化手法を提案する。
QLIPはテキストプロンプトを利用して、各ステップで各レイヤのビット精度の選択をガイドする。
本実験は,計算複雑性の低減と生成画像の品質向上におけるQLIPの有効性を実証する。
- 参考スコア(独自算出の注目度): 9.345515987536244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the success of diffusion models in image generation tasks such as text-to-image, the enormous computational complexity of diffusion models limits their use in resource-constrained environments. To address this, network quantization has emerged as a promising solution for designing efficient diffusion models. However, existing diffusion model quantization methods do not consider input conditions, such as text prompts, as an essential source of information for quantization. In this paper, we propose a novel quantization method dubbed Quantization of Language-to-Image diffusion models using text Prompts (QLIP). QLIP leverages text prompts to guide the selection of bit precision for every layer at each time step. In addition, QLIP can be seamlessly integrated into existing quantization methods to enhance quantization efficiency. Our extensive experiments demonstrate the effectiveness of QLIP in reducing computational complexity and improving the quality of the generated images across various datasets.
- Abstract(参考訳): テキスト・ツー・イメージのような画像生成タスクにおける拡散モデルの成功にもかかわらず、拡散モデルの膨大な計算複雑性は、リソース制約された環境での使用を制限する。
これを解決するために、ネットワーク量子化は効率的な拡散モデルを設計するための有望な解決策として登場した。
しかし、既存の拡散モデル量子化法は、テキストプロンプトのような入力条件を量子化に必要な情報源として考慮していない。
本稿では,テキスト・プロンプト(QLIP)を用いた言語間拡散モデルの量子化という新しい量子化手法を提案する。
QLIPはテキストプロンプトを利用して、各ステップで各レイヤのビット精度の選択をガイドする。
さらに、QLIPは既存の量子化手法にシームレスに統合され、量子化効率が向上する。
我々の広範な実験は、QLIPが計算の複雑さを減らし、様々なデータセットで生成された画像の品質を向上する効果を実証している。
関連論文リスト
- DGQ: Distribution-Aware Group Quantization for Text-to-Image Diffusion Models [12.875837358532422]
本稿では,テキストから画像への拡散モデルの定量化に関わる課題を,分布の観点から分析する。
本稿では,画像品質を維持するために,画素単位とチャネル単位のアウトレイラを適応的に処理するDGQを提案する。
提案手法はMS-COCOやPartiPromptsなどのデータセットに対して顕著な性能を示す。
論文 参考訳(メタデータ) (2025-01-08T06:30:31Z) - PQD: Post-training Quantization for Efficient Diffusion Models [4.809939957401427]
拡散モデル(PQD)のための新しい学習後量子化法を提案する。
提案手法は,完全精度拡散モデルを直接8ビット,4ビットモデルに量子化することができる。
論文 参考訳(メタデータ) (2024-12-30T19:55:59Z) - Coherent and Multi-modality Image Inpainting via Latent Space Optimization [61.99406669027195]
PILOT(intextbfPainting vtextbfIa textbfOptextbfTimization)は、新しいテキストセマンティック中央化とテキストセマンティック保存損失に基づく最適化手法である。
本手法は,背景とのコヒーレンスを維持しつつ,ユーザが提供するプロンプトに対して高い忠実度を示す塗装領域を生成できる潜時空間を探索する。
論文 参考訳(メタデータ) (2024-07-10T19:58:04Z) - QuEST: Low-bit Diffusion Model Quantization via Efficient Selective Finetuning [52.157939524815866]
本稿では,不均衡な活性化分布を量子化困難の原因として同定する。
我々は,これらの分布を,より量子化しやすいように微調整することで調整することを提案する。
本手法は3つの高解像度画像生成タスクに対して有効性を示す。
論文 参考訳(メタデータ) (2024-02-06T03:39:44Z) - Post-training Quantization for Text-to-Image Diffusion Models with Progressive Calibration and Activation Relaxing [49.800746112114375]
本稿では,テキスト・画像拡散モデルのための学習後量子化手法(プログレッシブ・アンド・リラクシング)を提案する。
我々は,安定拡散XLの量子化を初めて達成し,その性能を維持した。
論文 参考訳(メタデータ) (2023-11-10T09:10:09Z) - Effective Quantization for Diffusion Models on CPUs [5.419875683826296]
量子化(Quantization)は、ディープラーニングモデルを圧縮して効率を向上させる手法で、拡散モデルに適用する際の課題を提示する。
量子化学習と蒸留の両方を活用することで拡散モデルを定量化する新しい手法を提案する。
提案手法は,CPU上での推論効率を実証しながら,高画質な画像が得られることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:14:01Z) - Towards Accurate Post-training Quantization for Diffusion Models [73.19871905102545]
本稿では,効率的な画像生成のための拡散モデル(ADP-DM)の高精度なデータフリーポストトレーニング量子化フレームワークを提案する。
提案手法は, 拡散モデルの学習後の量子化を, 同様の計算コストで, 非常に大きなマージンで高速化する。
論文 参考訳(メタデータ) (2023-05-30T04:00:35Z) - Q-Diffusion: Quantizing Diffusion Models [52.978047249670276]
ポストトレーニング量子化(PTQ)は、他のタスクに対するゴーツー圧縮法であると考えられている。
本稿では,一意なマルチステップパイプラインとモデルアーキテクチャに適した新しいPTQ手法を提案する。
提案手法は,完全精度の非条件拡散モデルを同等の性能を維持しつつ4ビットに定量化できることを示す。
論文 参考訳(メタデータ) (2023-02-08T19:38:59Z) - Semantic Image Synthesis via Diffusion Models [174.24523061460704]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に事実上のGANベースのアプローチに従っている。
意味画像合成のためのDDPMに基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。