論文の概要: Debiasing Classifiers by Amplifying Bias with Latent Diffusion and Large Language Models
- arxiv url: http://arxiv.org/abs/2411.16079v1
- Date: Mon, 25 Nov 2024 04:11:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:23:33.274491
- Title: Debiasing Classifiers by Amplifying Bias with Latent Diffusion and Large Language Models
- Title(参考訳): 潜時拡散と大規模言語モデルによるバイアス増幅によるデバイアス化
- Authors: Donggeun Ko, Dongjun Lee, Namjun Park, Wonkyeong Shim, Jaekwang Kim,
- Abstract要約: DiffuBiasはテキスト・画像生成のための新しいパイプラインであり、バイアス・コンフリクト・サンプルを生成することで分類器の堅牢性を高める。
DrouBiasは、安定拡散モデルを活用する最初のアプローチである。
総合実験により,DiffuBiasがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 9.801159950963306
- License:
- Abstract: Neural networks struggle with image classification when biases are learned and misleads correlations, affecting their generalization and performance. Previous methods require attribute labels (e.g. background, color) or utilizes Generative Adversarial Networks (GANs) to mitigate biases. We introduce DiffuBias, a novel pipeline for text-to-image generation that enhances classifier robustness by generating bias-conflict samples, without requiring training during the generation phase. Utilizing pretrained diffusion and image captioning models, DiffuBias generates images that challenge the biases of classifiers, using the top-$K$ losses from a biased classifier ($f_B$) to create more representative data samples. This method not only debiases effectively but also boosts classifier generalization capabilities. To the best of our knowledge, DiffuBias is the first approach leveraging a stable diffusion model to generate bias-conflict samples in debiasing tasks. Our comprehensive experimental evaluations demonstrate that DiffuBias achieves state-of-the-art performance on benchmark datasets. We also conduct a comparative analysis of various generative models in terms of carbon emissions and energy consumption to highlight the significance of computational efficiency.
- Abstract(参考訳): ニューラルネットワークは、バイアスが学習され、相関関係が誤解され、その一般化と性能に影響を及ぼすとき、画像分類に苦慮する。
従来手法では属性ラベル(背景、色など)が必要だったり、GAN(Generative Adversarial Networks)を使ってバイアスを緩和していた。
テキスト・画像生成のための新しいパイプラインであるDiffuBiasを導入する。このパイプラインは、生成フェーズのトレーニングを必要とせず、バイアスのあるサンプルを生成することによって分類器の堅牢性を高める。
事前訓練された拡散とイメージキャプションモデルを利用して、DiffuBiasは分類器のバイアスに挑戦する画像を生成する。
この方法は効率的に除染するだけでなく、分類器の一般化能力を高める。
我々の知る限りでは、DiffuBiasは、不安定な拡散モデルを利用して、偏りを伴うタスクのサンプルを生成する最初のアプローチである。
総合実験により,DiffuBiasがベンチマークデータセット上で最先端のパフォーマンスを達成することを示す。
また、炭素排出量とエネルギー消費の観点から、様々な生成モデルの比較分析を行い、計算効率の重要性を強調した。
関連論文リスト
- Diffusing DeBias: a Recipe for Turning a Bug into a Feature [15.214861534330236]
本稿では,Diffusing DeBias (DDB)について述べる。
提案手法は, 条件付き拡散モデルを用いて, バイアスアンプモデルの訓練に用いる合成バイアスアライメント画像を生成する。
提案手法は,複数のベンチマークデータセットにおける現在の最先端の状態を,大きなマージンで打ち負かす。
論文 参考訳(メタデータ) (2025-02-13T18:17:03Z) - InvDiff: Invariant Guidance for Bias Mitigation in Diffusion Models [28.51460282167433]
拡散モデルは、非常にデータ駆動であり、現実世界のデータに存在する不均衡とバイアスを継承する傾向がある。
拡散誘導のための不変意味情報学習を目的としたフレームワークInvDiffを提案する。
InvDiffは、画像生成の品質を維持しながら、バイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-12-11T15:47:11Z) - DiffInject: Revisiting Debias via Synthetic Data Generation using Diffusion-based Style Injection [9.801159950963306]
DiffInject(ディフインジェクション)は,事前学習した拡散モデルを用いて,合成バイアス競合サンプルを増強する強力な手法である。
私たちのフレームワークでは、バイアスタイプやラベル付けに関する明確な知識は必要ありません。
論文 参考訳(メタデータ) (2024-06-10T09:45:38Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - Your Diffusion Model is Secretly a Zero-Shot Classifier [90.40799216880342]
大規模テキスト・画像拡散モデルからの密度推定をゼロショット分類に活用できることを示す。
分類に対する我々の生成的アプローチは、様々なベンチマークで強い結果が得られる。
我々の結果は、下流タスクにおける差別的モデルよりも生成的な利用に向けての一歩である。
論文 参考訳(メタデータ) (2023-03-28T17:59:56Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。