論文の概要: AI-generated faces influence gender stereotypes and racial homogenization
- arxiv url: http://arxiv.org/abs/2402.01002v2
- Date: Fri, 10 May 2024 09:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 20:07:31.307036
- Title: AI-generated faces influence gender stereotypes and racial homogenization
- Title(参考訳): AI生成顔はジェンダーステレオタイプと人種的均質化に影響を与える
- Authors: Nouar AlDahoul, Talal Rahwan, Yasir Zaki,
- Abstract要約: 6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性が黒い肌でひげを生やし、伝統的な頭飾りを身に着けているという、重要な人種的均質化を明らかにしている。
事前に登録された実験を用いて、包括的AI生成顔で提示されることで、人々の人種的および性別的偏見が減少し、非包括的偏見が提示されることで、そのような偏見が増大することを示した。
- 参考スコア(独自算出の注目度): 1.6647208383676708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generative AI models such as Stable Diffusion are used daily by millions worldwide. However, the extent to which these models exhibit racial and gender stereotypes is not yet fully understood. Here, we document significant biases in Stable Diffusion across six races, two genders, 32 professions, and eight attributes. Additionally, we examine the degree to which Stable Diffusion depicts individuals of the same race as being similar to one another. This analysis reveals significant racial homogenization, e.g., depicting nearly all middle eastern men as dark-skinned, bearded, and wearing a traditional headdress. We then propose novel debiasing solutions that address the above stereotypes. Finally, using a preregistered experiment, we show that being presented with inclusive AI-generated faces reduces people's racial and gender biases, while being presented with non-inclusive ones increases such biases. This persists regardless of whether the images are labeled as AI-generated. Taken together, our findings emphasize the need to address biases and stereotypes in AI-generated content.
- Abstract(参考訳): 安定拡散のようなテキストから画像への生成AIモデルは、世界中の何百万人もの人々が毎日使っている。
しかし、これらのモデルが人種や性別のステレオタイプを示す程度はまだ完全には理解されていない。
ここでは,6つの人種,2つの性別,32の専門職,8つの属性にまたがる安定拡散の重大なバイアスについて述べる。
さらに、安定拡散が互いに類似している同じ人種の個人を描写する程度について検討する。
この分析は、ほぼすべての中東の男性が黒い肌でひげを生やし、伝統的な頭飾りを身に着けている、重要な人種的均質化(eg)を明らかにしている。
次に、上記のステレオタイプに対処する新しいデバイアス解を提案する。
最後に、事前に登録された実験を用いて、包括的AI生成顔が提示されることで、人々の人種的および性別的バイアスが減少し、非包括的顔が提示されることで、そのようなバイアスが増大することを示す。
画像がAI生成とラベル付けされているかどうかに関わらず、これは継続する。
まとめると、AI生成コンテンツのバイアスやステレオタイプに対処する必要性が強調される。
関連論文リスト
- The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では, 言語モデル (LLM) に, 世代ごとのジェンダーや人種構成について, 言語化された事実情報を反映するように指示するFact-Augmented Intervention (FAI) を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - MoESD: Mixture of Experts Stable Diffusion to Mitigate Gender Bias [23.10522891268232]
このバイアスはすでにモデルのテキストエンコーダに存在していることを示す。
性別バイアスを軽減するため,BiAs (Bias Adapters) を用いたMOESD (Mixture of Experts Stable Diffusion) を提案する。
論文 参考訳(メタデータ) (2024-06-25T14:59:31Z) - Inclusive content reduces racial and gender biases, yet non-inclusive content dominates popular media outlets [1.4204016278692333]
本研究では、人種や性別の集団が人気メディア画像に描かれる様子を考察する。
私たちは50年以上にわたって30万以上の画像を収集し、最先端の機械学習モデルを使用しています。
人種的少数派は白人よりもはるかに少なく見える。
また、女性は全身をイメージで表現する傾向が強く、男性は顔で表現する傾向が強いこともわかりました。
論文 参考訳(メタデータ) (2024-05-10T11:34:47Z) - Bias in Generative AI [2.5830293457323266]
本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
論文 参考訳(メタデータ) (2024-03-05T07:34:41Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。