論文の概要: AI-generated faces free from racial and gender stereotypes
- arxiv url: http://arxiv.org/abs/2402.01002v1
- Date: Thu, 1 Feb 2024 20:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 17:54:01.486510
- Title: AI-generated faces free from racial and gender stereotypes
- Title(参考訳): 人種と性別のステレオタイプのないAI生成顔
- Authors: Nouar AlDahoul, Talal Rahwan, Yasir Zaki
- Abstract要約: 我々は、任意の顔画像の人種、性別、年齢を予測できる分類器を開発する。
6つの人種、2つの性別、5つの年齢グループ、32の専門職、8つの属性にまたがる安定拡散のバイアスを定量化する。
我々は、最先端の代替品より優れた新しい脱バイアスソリューションを提案する。
- 参考スコア(独自算出の注目度): 1.8709793925421858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image generative AI models such as Stable Diffusion are used daily by
millions worldwide. However, many have raised concerns regarding how these
models amplify racial and gender stereotypes. To study this phenomenon, we
develop a classifier to predict the race, gender, and age group of any given
face image, and show that it achieves state-of-the-art performance. Using this
classifier, we quantify biases in Stable Diffusion across six races, two
genders, five age groups, 32 professions, and eight attributes. We then propose
novel debiasing solutions that outperform state-of-the-art alternatives.
Additionally, we examine the degree to which Stable Diffusion depicts
individuals of the same race as being similar to one another. This analysis
reveals a high degree of stereotyping, e.g., depicting most middle eastern
males as being dark-skinned, bearded, and wearing a traditional headdress. We
address these limitations by proposing yet another novel solution that
increases facial diversity across genders and racial groups. Our solutions are
open-sourced and made publicly available.
- Abstract(参考訳): 安定拡散のようなテキストから画像への生成AIモデルは、世界中の何百万人もの人々が毎日使っている。
しかし、これらのモデルがどのように人種や性別のステレオタイプを増幅するかに関して多くの懸念が持たれている。
この現象を研究するために,任意の顔画像の人種,性別,年齢グループを予測する分類器を開発し,最先端のパフォーマンスを実現することを示す。
この分類器を用いて、6つの人種、2つの性別、5つの年齢グループ、32の専門職、8つの属性にわたる安定拡散のバイアスを定量化する。
そこで我々は,最先端の代替案に勝る新しいデバイアスソリューションを提案する。
さらに,安定拡散が同一人種の個体が互いに類似していることを示す程度について検討する。
この分析により、中東の男性のほとんどは浅黒い肌でひげを生やし、伝統的な頭飾りを身に着けているという高いステレオタイプが明らかになった。
これらの制限に対処するために、ジェンダーや人種グループ間の顔の多様性を高める新しいソリューションを提案する。
私たちのソリューションはオープンソースで公開されています。
関連論文リスト
- The Male CEO and the Female Assistant: Probing Gender Biases in
Text-To-Image Models Through Paired Stereotype Test [68.84245853250906]
DALLE-3のような最近の大規模テキスト・ツー・イメージ(T2I)モデルは、新しいアプリケーションにおいて大きな可能性を秘めているが、前例のない公平さの課題に直面している。
本稿では,Paired Stereotype Test (PST) のバイアス評価フレームワークを提案する。
以上の結果から,現代T2Iモデルにおける男女差の複雑なパターンが明らかとなり,マルチモーダル生成システムにおける批判的公平性の課題が浮き彫りになった。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and
Prompt Engineering May Not Help You [68.50889475919251]
多言語モデルは単言語モデルと同様の(性的な)バイアスに悩まされていることを示す。
ジェンダーバイアスのない多言語モデルの研究を促進するための新しいベンチマークMAGBIGを提案する。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Evaluating Large Language Models through Gender and Racial Stereotypes [0.0]
質比較研究を行い、性別と人種の2種類の偏見を前提として、言語モデルを評価する枠組みを確立する。
より古いモデルに比べて、新しいモデルでは男女の偏見が大幅に減少したが、人種の偏見は依然として存在する。
論文 参考訳(メタデータ) (2023-11-24T18:41:16Z) - Mitigating stereotypical biases in text to image generative systems [10.068823600548157]
我々は、さまざまなテキストプロンプトから構築された知覚された皮膚のトーンや性別によって異なる合成データに対して、テキスト・ツー・イメージモデルを微調整することでこれを実現している。
我々の多様性微調整(DFT)モデルは、知覚された肌のトーンが150%、知覚された性別が97.7%向上する。
論文 参考訳(メタデータ) (2023-10-10T18:01:52Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。