論文の概要: Energy Scaling Laws for Diffusion Models: Quantifying Compute and Carbon Emissions in Image Generation
- arxiv url: http://arxiv.org/abs/2511.17031v1
- Date: Fri, 21 Nov 2025 08:12:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.93035
- Title: Energy Scaling Laws for Diffusion Models: Quantifying Compute and Carbon Emissions in Image Generation
- Title(参考訳): 拡散モデルにおけるエネルギースケーリング法則--画像生成における計算と炭素排出量の定量化
- Authors: Aniketh Iyengar, Jiaqi Han, Boris Ruf, Vincent Grari, Marcin Detyniecki, Stefano Ermon,
- Abstract要約: 本稿では,計算複雑性(FLOP)に基づく拡散モデルに対するGPUエネルギー消費予測のためのKaplanスケーリング法の適用法を提案する。
提案手法は, テキストエンコーディング, 反復的復号化, 復号化コンポーネントへの拡散モデル推論を分解し, 複数の推論ステップをまたいだ繰り返し実行により, 演算の復号化がエネルギー消費を支配しているという仮説を導いた。
この結果は拡散予測の計算バウンドの性質を検証し、持続可能なAIデプロイメント計画と炭素フットプリント推定の基礎を提供する。
- 参考スコア(独自算出の注目度): 50.21021246855702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapidly growing computational demands of diffusion models for image generation have raised significant concerns about energy consumption and environmental impact. While existing approaches to energy optimization focus on architectural improvements or hardware acceleration, there is a lack of principled methods to predict energy consumption across different model configurations and hardware setups. We propose an adaptation of Kaplan scaling laws to predict GPU energy consumption for diffusion models based on computational complexity (FLOPs). Our approach decomposes diffusion model inference into text encoding, iterative denoising, and decoding components, with the hypothesis that denoising operations dominate energy consumption due to their repeated execution across multiple inference steps. We conduct comprehensive experiments across four state-of-the-art diffusion models (Stable Diffusion 2, Stable Diffusion 3.5, Flux, and Qwen) on three GPU architectures (NVIDIA A100, A4000, A6000), spanning various inference configurations including resolution (256x256 to 1024x1024), precision (fp16/fp32), step counts (10-50), and classifier-free guidance settings. Our energy scaling law achieves high predictive accuracy within individual architectures (R-squared > 0.9) and exhibits strong cross-architecture generalization, maintaining high rank correlations across models and enabling reliable energy estimation for unseen model-hardware combinations. These results validate the compute-bound nature of diffusion inference and provide a foundation for sustainable AI deployment planning and carbon footprint estimation.
- Abstract(参考訳): 画像生成のための拡散モデルの計算要求が急速に増大し、エネルギー消費と環境への影響に大きな懸念がもたらされた。
エネルギー最適化への既存のアプローチは、アーキテクチャの改善やハードウェアアクセラレーションに重点を置いているが、異なるモデル構成とハードウェアセットアップをまたいだエネルギー消費を予測するための原則的な方法が欠如している。
本稿では,計算複雑性(FLOP)に基づく拡散モデルのGPUエネルギー消費を予測するために,Kaplanスケーリング法の適用を提案する。
提案手法は, テキストエンコーディング, 反復的復号化, 復号化コンポーネントへの拡散モデル推論を分解し, 複数の推論ステップをまたいだ繰り返し実行により, 演算の復号化がエネルギー消費を支配しているという仮説を導いた。
我々は,3つのGPUアーキテクチャ(NVIDIA A100,A4000,A6000),解像度(256x256~1024x1024),精度(fp16/fp32),ステップ数(10-50),分類器なしガイダンス設定など,最先端拡散モデル(安定拡散2,安定拡散3.5,フラックス,Qwen)の総合的な実験を行った。
我々のエネルギースケーリング法則は、個々のアーキテクチャ(R-squared > 0.9)内で高い予測精度を達成し、強いクロスアーキテクチャの一般化を示し、モデル間の高階相関を維持し、未知のモデルとハードウエアの組み合わせに対する信頼性の高いエネルギー推定を可能にする。
これらの結果は拡散推論の計算バウンドの性質を検証し、持続可能なAIデプロイメント計画と炭素フットプリント推定の基礎を提供する。
関連論文リスト
- SDAR: A Synergistic Diffusion-AutoRegression Paradigm for Scalable Sequence Generation [62.14510717860079]
本稿では, 自己回帰モデルの学習効率を, 拡散の並列推論能力で統一するSynergistic Diffusion-Autoregressionパラダイムを提案する。
SDARは、十分に訓練された自己回帰モデル(AR)を、簡潔でデータ効率のよい適応を通じてブロックワイズ拡散モデルに変換する、軽量なパラダイム変換を実行する。
この知見に基づいて、SDARは最小コストで効率的なAR-拡散変換を実現し、並列生成を可能にしながら、ARレベルのパフォーマンスを維持する。
論文 参考訳(メタデータ) (2025-10-07T17:29:28Z) - FoilDiff: A Hybrid Transformer Backbone for Diffusion-based Modelling of 2D Airfoil Flow Fields [1.5749416770494706]
FoilDiffは、ハイブリッドバックボーンデノナイジングネットワークを備えた拡散ベースのサロゲートモデルである。
既存の拡散モデルよりも正確な予測とより良い校正された予測の不確実性を提供することができる。
論文 参考訳(メタデータ) (2025-10-05T19:10:38Z) - Distributed Cross-Channel Hierarchical Aggregation for Foundation Models [8.360214641005673]
画像モダリティにまたがる多数のチャネルを持つデータセットに対して階層的クロスチャネルアグリゲーション(D-CHAG)アプローチを導入する。
提案手法は,任意のモデル並列戦略やトランスフォーマーアーキテクチャと互換性があり,計算効率を著しく向上させる。
テンソルシャーディングと統合すると,フロンティアスーパーコンピュータ上では,最大75%のメモリ使用量の削減,最大1,024AMDでの2倍以上のスループットを実現した。
論文 参考訳(メタデータ) (2025-06-26T15:58:14Z) - Controlled Latent Diffusion Models for 3D Porous Media Reconstruction [2.61662361742721]
多孔質媒体の3次元デジタル再構成は、地球科学の根本的な課題である。
本稿では,EDMフレームワーク内で動作する潜伏拡散モデルを用いて,この問題に対処する計算フレームワークを提案する。
提案手法は,バイナリボリュームで訓練されたカスタム変分オートエンコーダを用いて次元性を低減し,効率を向上し,より大きなボリュームの生成を可能にする。
論文 参考訳(メタデータ) (2025-03-31T13:36:55Z) - EXION: Exploiting Inter- and Intra-Iteration Output Sparsity for Diffusion Models [12.931893842093718]
SW-HW共同設計型拡散加速器であるEXIONについて紹介する。
これは拡散モデルにおける特異な点間および点内出力の空間性を利用する。
サーバGPUと比較して3.2-379.3xと45.1-3067.6x、エッジGPUに比べて42.6-1090.9xと196.9-4668.2xの性能改善を実現している。
論文 参考訳(メタデータ) (2025-01-10T03:07:28Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Diffusion Models Without Attention [110.5623058129782]
Diffusion State Space Model (DiffuSSM) は、よりスケーラブルな状態空間モデルバックボーンで注目メカニズムを置き換えるアーキテクチャである。
拡散訓練におけるFLOP効率の高いアーキテクチャへの注力は、大きな前進となる。
論文 参考訳(メタデータ) (2023-11-30T05:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。