論文の概要: Stable Bias: Analyzing Societal Representations in Diffusion Models
- arxiv url: http://arxiv.org/abs/2303.11408v1
- Date: Mon, 20 Mar 2023 19:32:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 17:35:06.663026
- Title: Stable Bias: Analyzing Societal Representations in Diffusion Models
- Title(参考訳): 安定バイアス:拡散モデルにおける社会表現の解析
- Authors: Alexandra Sasha Luccioni, Christopher Akiki, Margaret Mitchell, Yacine
Jernite
- Abstract要約: 本稿では,テキスト・ツー・イメージシステムにおける社会的バイアスの探索と定量化のための新しい手法を提案する。
この手法を用いて,3つのTTIシステムによって生成された96,000以上の画像を分析する。
DALL-E 2 は最小の多様性を示し、続いて安定拡散 v2 と v1.4 が続く。
- 参考スコア(独自算出の注目度): 71.940871295602
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As machine learning-enabled Text-to-Image (TTI) systems are becoming
increasingly prevalent and seeing growing adoption as commercial services,
characterizing the social biases they exhibit is a necessary first step to
lowering their risk of discriminatory outcomes. This evaluation, however, is
made more difficult by the synthetic nature of these systems' outputs; since
artificial depictions of fictive humans have no inherent gender or ethnicity
nor do they belong to socially-constructed groups, we need to look beyond
common categorizations of diversity or representation. To address this need, we
propose a new method for exploring and quantifying social biases in TTI systems
by directly comparing collections of generated images designed to showcase a
system's variation across social attributes -- gender and ethnicity -- and
target attributes for bias evaluation -- professions and gender-coded
adjectives. Our approach allows us to (i) identify specific bias trends through
visualization tools, (ii) provide targeted scores to directly compare models in
terms of diversity and representation, and (iii) jointly model interdependent
social variables to support a multidimensional analysis. We use this approach
to analyze over 96,000 images generated by 3 popular TTI systems (DALL-E 2,
Stable Diffusion v 1.4 and v 2) and find that all three significantly
over-represent the portion of their latent space associated with whiteness and
masculinity across target attributes; among the systems studied, DALL-E 2 shows
the least diversity, followed by Stable Diffusion v2 then v1.4.
- Abstract(参考訳): 機械学習対応のテキスト・トゥ・イメージ(TTI)システムがますます普及し、商業サービスとしての採用が増えている中、彼らが提示する社会的偏見を特徴付けることは、差別的な結果のリスクを下げる上で必要な第一歩である。
しかし、この評価は、これらのシステムのアウトプットの合成的性質によってより難しくなっており、創造的な人間の人工的な描写は、固有の性別や民族性を持たず、社会的に構成されたグループに属しないので、多様性や表現の一般的な分類を超越する必要がある。
そこで本研究では,tttiシステムにおける社会的バイアスの探索と定量化のための新しい手法を提案する。
私たちのアプローチは
(i)可視化ツールを通して特定のバイアス傾向を特定する。
(ii)多様性と表現性の観点から直接比較するための目標スコアを提供する。
(iii)多次元解析を支援するための相互依存型社会変数を共同モデル化する。
この手法を用いて,3つのTTIシステム(DALL-E 2, 安定拡散 v 1.4, v2)で生成された96,000以上の画像を解析し, 対象属性間の白さ, 男性性に関連する潜伏空間を著しく過剰に表現し, DALL-E 2 は最小の多様性を示し, 続いて安定拡散 v2, v1.4 が続く。
関連論文リスト
- Text-to-Image Representativity Fairness Evaluation Framework [0.42970700836450487]
本稿では,テキスト・ツー・イメージ(TTI)表現性評価フレームワークを提案する。
本稿では,TTIシステムの多様性,包摂性,品質の3つの側面を評価する。
安定拡散に関する我々のフレームワークの評価は、このフレームワークがTTIシステムのバイアスを効果的に捉えることができることを示している。
論文 参考訳(メタデータ) (2024-10-18T06:31:57Z) - Comprehensive Equity Index (CEI): Definition and Application to Bias Evaluation in Biometrics [47.762333925222926]
本稿では,機械学習モデルのバイアス行動の定量化のための新しい指標を提案する。
顔認識システムの運用評価に焦点をあて,適用する。
論文 参考訳(メタデータ) (2024-09-03T14:19:38Z) - The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - Towards Inclusive Face Recognition Through Synthetic Ethnicity Alteration [11.451395489475647]
我々は、データセットの多様性を高めるために合成顔画像生成法を用いて、民族的変化と肌のトーン修正を探索する。
まず,アジア,黒人,インディアンの3民族を表わすバランスのとれた顔画像データセットを構築し,詳細な分析を行う。
次に、既存のGAN(Generative Adversarial Network-based Image-to-image translation)と多様体学習モデルを用いて、それぞれの民族性を変化させる。
論文 参考訳(メタデータ) (2024-05-02T13:31:09Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Ecosystem-level Analysis of Deployed Machine Learning Reveals Homogeneous Outcomes [72.13373216644021]
本研究では,機械学習の社会的影響を,特定の文脈に展開されるモデルの集合を考慮し検討する。
デプロイされた機械学習はシステム障害を起こしやすいため、利用可能なすべてのモデルに排他的に誤分類されているユーザもいます。
これらの例は、エコシステムレベルの分析が、機械学習の社会的影響を特徴づける独自の強みを持っていることを示している。
論文 参考訳(メタデータ) (2023-07-12T01:11:52Z) - Assessing Demographic Bias Transfer from Dataset to Model: A Case Study
in Facial Expression Recognition [1.5340540198612824]
2つのメトリクスはデータセットの表現バイアスとステレオタイプバイアスに焦点をあて、もう1つはトレーニングされたモデルの残差バイアスに焦点を当てている。
本稿では、一般的なAffectnetデータセットに基づくFER問題に適用することで、メトリクスの有用性を示す。
論文 参考訳(メタデータ) (2022-05-20T09:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。