論文の概要: Harnessing Diffusion-Generated Synthetic Images for Fair Image Classification
- arxiv url: http://arxiv.org/abs/2511.08711v1
- Date: Thu, 13 Nov 2025 01:03:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.203822
- Title: Harnessing Diffusion-Generated Synthetic Images for Fair Image Classification
- Title(参考訳): 公平な画像分類のための高調波拡散生成合成画像
- Authors: Abhipsa Basu, Aviral Gupta, Abhijnya Bhat, R. Venkatesh Babu,
- Abstract要約: 画像分類システムは、トレーニングデータにおける不均一なグループ表現からのバイアスを継承することが多い。
本研究では,LoRAやDreamBoothなどの拡散微細化技術を用いて,各トレーニンググループをより正確に表現した画像を生成する。
- 参考スコア(独自算出の注目度): 25.474389970409067
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image classification systems often inherit biases from uneven group representation in training data. For example, in face datasets for hair color classification, blond hair may be disproportionately associated with females, reinforcing stereotypes. A recent approach leverages the Stable Diffusion model to generate balanced training data, but these models often struggle to preserve the original data distribution. In this work, we explore multiple diffusion-finetuning techniques, e.g., LoRA and DreamBooth, to generate images that more accurately represent each training group by learning directly from their samples. Additionally, in order to prevent a single DreamBooth model from being overwhelmed by excessive intra-group variations, we explore a technique of clustering images within each group and train a DreamBooth model per cluster. These models are then used to generate group-balanced data for pretraining, followed by fine-tuning on real data. Experiments on multiple benchmarks demonstrate that the studied finetuning approaches outperform vanilla Stable Diffusion on average and achieve results comparable to SOTA debiasing techniques like Group-DRO, while surpassing them as the dataset bias severity increases.
- Abstract(参考訳): 画像分類システムは、トレーニングデータにおける不均一なグループ表現からのバイアスを継承することが多い。
例えば、髪の色分類のための顔のデータセットでは、ブロンドの髪は女性と不均等に関連付けられ、ステレオタイプが強化される。
最近のアプローチでは、安定拡散モデルを利用してバランスの取れたトレーニングデータを生成するが、これらのモデルは元のデータ分布を保存するのに苦労することが多い。
本研究では,複数の拡散微細化技術,例えばLoRAやDreamBoothを探索し,サンプルから直接学習することで,各トレーニンググループをより正確に表現する画像を生成する。
さらに、1つのドリームブースモデルが過剰なグループ内変動に圧倒されるのを防ぐため、各グループ内で画像をクラスタ化してクラスタ毎にDreamBoothモデルをトレーニングする手法について検討する。
これらのモデルは、事前トレーニングのためにグループバランスのデータを生成するために使用され、その後、実際のデータを微調整する。
複数のベンチマークの実験では、研究された微調整アプローチが平均でバニラ安定拡散を上回り、データセットバイアスの深刻度が増加するにつれて、グループDROのようなSOTAデバイアス技術に匹敵する結果が得られることが示されている。
関連論文リスト
- Learning Robust Diffusion Models from Imprecise Supervision [75.53546939251146]
DMISは、Imrecise Supervisionから堅牢な条件拡散モデルをトレーニングするための統一されたフレームワークである。
我々のフレームワークは、可能性から派生し、その目的を生成的および分類的構成要素に分解する。
画像生成、弱教師付き学習、データセットの凝縮をカバーし、様々な形の不正確な監視実験を行い、DMISが常に高品質でクラス差別的なサンプルを生成することを示した。
論文 参考訳(メタデータ) (2025-10-03T14:00:32Z) - Debiasing Classifiers by Amplifying Bias with Latent Diffusion and Large Language Models [9.801159950963306]
DiffuBiasはテキスト・画像生成のための新しいパイプラインであり、バイアス・コンフリクト・サンプルを生成することで分類器の堅牢性を高める。
DrouBiasは、安定拡散モデルを活用する最初のアプローチである。
総合実験により,DiffuBiasがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-11-25T04:11:16Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - Fair GANs through model rebalancing for extremely imbalanced class
distributions [5.463417677777276]
本稿では,既存のバイアス付きGANからGAN(unbiased generative adversarial Network)を構築するためのアプローチを提案する。
Flickr Faces High Quality (FFHQ) データセットを用いて、人種的公平性をトレーニングしながら、StyleGAN2モデルの結果を示す。
また,不均衡なCIFAR10データセットに適用することで,我々のアプローチをさらに検証する。
論文 参考訳(メタデータ) (2023-08-16T19:20:06Z) - Unbiased Image Synthesis via Manifold Guidance in Diffusion Models [9.531220208352252]
拡散モデルは、しばしば必然的に特定のデータ属性を好ましくし、生成された画像の多様性を損なう。
我々は,DDPMにおけるバイアス問題を緩和する最初の教師なし手法であるManifold Smpling Guidanceというプラグアンドプレイ手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T02:03:17Z) - Class-Balancing Diffusion Models [57.38599989220613]
クラスバランシング拡散モデル(CBDM)は、分散調整正規化器をソリューションとして訓練する。
提案手法は,CIFAR100/CIFAR100LTデータセットで生成結果をベンチマークし,下流認識タスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-30T20:00:14Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。