論文の概要: SustainDiffusion: Optimising the Social and Environmental Sustainability of Stable Diffusion Models
- arxiv url: http://arxiv.org/abs/2507.15663v1
- Date: Mon, 21 Jul 2025 14:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.439107
- Title: SustainDiffusion: Optimising the Social and Environmental Sustainability of Stable Diffusion Models
- Title(参考訳): 持続可能な拡散 : 安定拡散モデルの社会的・環境的持続可能性の最適化
- Authors: Giordano d'Aloisio, Tosin Fadahunsi, Jay Choy, Rebecca Moussa, Federica Sarro,
- Abstract要約: SustainDiffusionは、テキスト・ツー・イメージ生成モデルの社会的・環境的持続性を高めるために設計された検索ベースのアプローチである。
生成した画像の性別や民族的偏見を低減し、画像生成に必要なエネルギー消費を低減させる。
結果: SustainDiffusionはSD3の性別バイアスを68%減らし、民族バイアスを59%減らし、エネルギー消費(CPUとGPUのエネルギーの合計として計算される)を48%減らした。
- 参考スコア(独自算出の注目度): 8.924529562496872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Text-to-image generation models are widely used across numerous domains. Among these models, Stable Diffusion (SD) - an open-source text-to-image generation model - has become the most popular, producing over 12 billion images annually. However, the widespread use of these models raises concerns regarding their social and environmental sustainability. Aims: To reduce the harm that SD models may have on society and the environment, we introduce SustainDiffusion, a search-based approach designed to enhance the social and environmental sustainability of SD models. Method: SustainDiffusion searches the optimal combination of hyperparameters and prompt structures that can reduce gender and ethnic bias in generated images while also lowering the energy consumption required for image generation. Importantly, SustainDiffusion maintains image quality comparable to that of the original SD model. Results: We conduct a comprehensive empirical evaluation of SustainDiffusion, testing it against six different baselines using 56 different prompts. Our results demonstrate that SustainDiffusion can reduce gender bias in SD3 by 68%, ethnic bias by 59%, and energy consumption (calculated as the sum of CPU and GPU energy) by 48%. Additionally, the outcomes produced by SustainDiffusion are consistent across multiple runs and can be generalised to various prompts. Conclusions: With SustainDiffusion, we demonstrate how enhancing the social and environmental sustainability of text-to-image generation models is possible without fine-tuning or changing the model's architecture.
- Abstract(参考訳): 背景: テキスト・ツー・イメージ生成モデルは、多くのドメインで広く使われている。
これらのモデルの中で、オープンソースのテキスト・画像生成モデルであるStable Diffusion(SD)が最も人気があり、年間1200億以上の画像が作成されている。
しかし,これらのモデルの普及により,社会的・環境的持続可能性への懸念が高まっている。
Aims: SDモデルが社会や環境に与える影響を低減するため, SDモデルの社会的・環境的持続可能性を高めるために, 検索に基づくアプローチであるSustainDiffusionを導入する。
方法:SustainDiffusionは、画像生成に必要なエネルギー消費量を減らしながら、生成画像中の性別や民族的偏見を低減できるような、ハイパーパラメータの最適組み合わせを探索する。
SustainDiffusionは、オリジナルのSDモデルに匹敵する画質を維持している。
結果: SustainDiffusionの総合的評価を行い,56種類のプロンプトを用いて6種類のベースラインに対して試験を行った。
SustainDiffusionはSD3の性別バイアスを68%減らし、民族バイアスを59%減らし、エネルギー消費を48%減らした。
さらに、SustainDiffusionによって生成される結果は複数の実行間で一貫性があり、さまざまなプロンプトに一般化することができる。
結論:SustainDiffusionでは,モデルアーキテクチャを微調整したり変更したりすることなく,テキスト・画像生成モデルの社会的・環境的持続性をいかに高めるかを示す。
関連論文リスト
- Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - BudgetFusion: Perceptually-Guided Adaptive Diffusion Models [15.293203074854267]
拡散モデルが画像を生成する前に最も知覚的に効率的な拡散ステップ数を示す新しいモデルであるBudgetFusionを提案する。
実験の結果、BudgetFusionは知覚的類似性を損なうことなく、1プロンプトあたり最大5秒節約できることがわかった。
私たちは、この研究が核となる疑問に答えるための努力を始めることを願っている。
論文 参考訳(メタデータ) (2024-12-08T02:23:40Z) - Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - Comparative Analysis of Generative Models: Enhancing Image Synthesis with VAEs, GANs, and Stable Diffusion [0.0]
本稿では,変分オートエンコーダ(VAE),GAN(Generative Adversarial Networks),安定拡散(Stable Diffusion)の3つの主要な生成モデルについて検討する。
論文 参考訳(メタデータ) (2024-08-16T13:50:50Z) - Diffusion Soup: Model Merging for Text-to-Image Diffusion Models [90.01635703779183]
シャードデータに基づいてトレーニングされた拡散モデルの重みを平均化する,テキスト・ツー・イメージ・ジェネレーションの複合化手法であるDiffusion Soupを提案する。
提案手法は,構築により,追加記憶や推論コストを伴わずに,無学習の連続学習とアンラーニングを可能にする。
論文 参考訳(メタデータ) (2024-06-12T17:16:16Z) - Large-scale Reinforcement Learning for Diffusion Models [30.164571425479824]
テキストと画像の拡散モデルは、Webスケールのテキストと画像のトレーニングペアから生じる暗黙のバイアスに影響を受けやすい。
強化学習(Reinforcement Learning, RL)を用いて, 拡散モデルの改善に有効なスケーラブルアルゴリズムを提案する。
提案手法は,従来の拡散モデルと人間の嗜好を整合させる手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-20T08:10:43Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - DDFM: Denoising Diffusion Model for Multi-Modality Image Fusion [144.9653045465908]
拡散確率モデル(DDPM)に基づく新しい融合アルゴリズムを提案する。
近赤外可視画像融合と医用画像融合で有望な融合が得られた。
論文 参考訳(メタデータ) (2023-03-13T04:06:42Z) - Consistency Models [89.68380014789861]
ノイズを直接データにマッピングすることで,高品質なサンプルを生成する新しいモデル群を提案する。
設計によって高速なワンステップ生成をサポートしながら、マルチステップサンプリングによって、サンプル品質の計算を交換することができる。
イメージインペイント、カラー化、超高解像度といったゼロショットデータ編集も、明示的なトレーニングを必要とせずサポートしている。
論文 参考訳(メタデータ) (2023-03-02T18:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。