論文の概要: AI-generated faces free from racial and gender stereotypes
- arxiv url: http://arxiv.org/abs/2402.01002v1
- Date: Thu, 1 Feb 2024 20:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 17:54:01.486510
- Title: AI-generated faces free from racial and gender stereotypes
- Title(参考訳): 人種と性別のステレオタイプのないAI生成顔
- Authors: Nouar AlDahoul, Talal Rahwan, Yasir Zaki
- Abstract要約: 我々は、任意の顔画像の人種、性別、年齢を予測できる分類器を開発する。
6つの人種、2つの性別、5つの年齢グループ、32の専門職、8つの属性にまたがる安定拡散のバイアスを定量化する。
我々は、最先端の代替品より優れた新しい脱バイアスソリューションを提案する。
- 参考スコア(独自算出の注目度): 1.8709793925421858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generative AI models such as Stable Diffusion are used daily by
millions worldwide. However, many have raised concerns regarding how these
models amplify racial and gender stereotypes. To study this phenomenon, we
develop a classifier to predict the race, gender, and age group of any given
face image, and show that it achieves state-of-the-art performance. Using this
classifier, we quantify biases in Stable Diffusion across six races, two
genders, five age groups, 32 professions, and eight attributes. We then propose
novel debiasing solutions that outperform state-of-the-art alternatives.
Additionally, we examine the degree to which Stable Diffusion depicts
individuals of the same race as being similar to one another. This analysis
reveals a high degree of stereotyping, e.g., depicting most middle eastern
males as being dark-skinned, bearded, and wearing a traditional headdress. We
address these limitations by proposing yet another novel solution that
increases facial diversity across genders and racial groups. Our solutions are
open-sourced and made publicly available.
- Abstract(参考訳): 安定拡散のようなテキストから画像への生成AIモデルは、世界中の何百万人もの人々が毎日使っている。
しかし、これらのモデルがどのように人種や性別のステレオタイプを増幅するかに関して多くの懸念が持たれている。
この現象を研究するために,任意の顔画像の人種,性別,年齢グループを予測する分類器を開発し,最先端のパフォーマンスを実現することを示す。
この分類器を用いて、6つの人種、2つの性別、5つの年齢グループ、32の専門職、8つの属性にわたる安定拡散のバイアスを定量化する。
そこで我々は,最先端の代替案に勝る新しいデバイアスソリューションを提案する。
さらに,安定拡散が同一人種の個体が互いに類似していることを示す程度について検討する。
この分析により、中東の男性のほとんどは浅黒い肌でひげを生やし、伝統的な頭飾りを身に着けているという高いステレオタイプが明らかになった。
これらの制限に対処するために、ジェンダーや人種グループ間の顔の多様性を高める新しいソリューションを提案する。
私たちのソリューションはオープンソースで公開されています。
関連論文リスト
- The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - MoESD: Mixture of Experts Stable Diffusion to Mitigate Gender Bias [23.10522891268232]
テキスト・ツー・イメージ・モデルにおいて、ジェンダーバイアスを軽減するためのMixture-of-Expertsアプローチを導入する。
画像品質を維持しながら, 性別偏見の軽減に成功していることを示す。
論文 参考訳(メタデータ) (2024-06-25T14:59:31Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Leveraging Diffusion Perturbations for Measuring Fairness in Computer
Vision [25.414154497482162]
拡散モデルを利用してそのようなデータセットを作成できることを実証する。
マルチクラスの職業分類タスクにおいて,複数の視覚言語モデルをベンチマークする。
非コーカサスラベルで生成された画像は、コーカサスラベルで生成された画像よりも、職業的誤分類率が高いことが判明した。
論文 参考訳(メタデータ) (2023-11-25T19:40:13Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - An Examination of Fairness of AI Models for Deepfake Detection [5.4852920337961235]
我々は保護されたサブグループ間のディープフェイクデータセットおよび検出モデルに存在するバイアスを評価する。
人種と性別のバランスをとる顔データセットを用いて,3つの一般的なディープフェイク検出器を調べ,人種間の予測性能に大きな差を見出した。
論文 参考訳(メタデータ) (2021-05-02T21:55:04Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。