論文の概要: Bias in Generative AI
- arxiv url: http://arxiv.org/abs/2403.02726v1
- Date: Tue, 5 Mar 2024 07:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:50:44.505401
- Title: Bias in Generative AI
- Title(参考訳): ジェネレーティブAIにおけるバイアス
- Authors: Mi Zhou, Vibhanshu Abhishek, Timothy Derdenger, Jaymo Kim, Kannan
Srinivasan
- Abstract要約: 本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
- 参考スコア(独自算出の注目度): 2.5830293457323266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study analyzed images generated by three popular generative artificial
intelligence (AI) tools - Midjourney, Stable Diffusion, and DALLE 2 -
representing various occupations to investigate potential bias in AI
generators. Our analysis revealed two overarching areas of concern in these AI
generators, including (1) systematic gender and racial biases, and (2) subtle
biases in facial expressions and appearances. Firstly, we found that all three
AI generators exhibited bias against women and African Americans. Moreover, we
found that the evident gender and racial biases uncovered in our analysis were
even more pronounced than the status quo when compared to labor force
statistics or Google images, intensifying the harmful biases we are actively
striving to rectify in our society. Secondly, our study uncovered more nuanced
prejudices in the portrayal of emotions and appearances. For example, women
were depicted as younger with more smiles and happiness, while men were
depicted as older with more neutral expressions and anger, posing a risk that
generative AI models may unintentionally depict women as more submissive and
less competent than men. Such nuanced biases, by their less overt nature, might
be more problematic as they can permeate perceptions unconsciously and may be
more difficult to rectify. Although the extent of bias varied depending on the
model, the direction of bias remained consistent in both commercial and
open-source AI generators. As these tools become commonplace, our study
highlights the urgency to identify and mitigate various biases in generative
AI, reinforcing the commitment to ensuring that AI technologies benefit all of
humanity for a more inclusive future.
- Abstract(参考訳): 本研究では,汎用人工知能(ai)ツールであるmidjourney,stable diffusion,dalle 2で生成した画像を分析し,ai生成器の潜在的なバイアスについて検討した。
分析の結果,(1)システマティックな性別や人種的偏見,(2)表情や外見の微妙な偏見など,AIジェネレータの2つの大まかな関心領域が明らかになった。
まず、すべてのAIジェネレータが女性やアフリカ系アメリカ人に対する偏見を示していた。
さらに、我々の分析で明らかになった明らかな性別や人種の偏見は、労働力統計やGoogleの画像と比較すると、現状よりもさらに顕著であり、我々の社会で積極的に試みている有害な偏見が増していることがわかった。
第2に,感情や外見の描写において,よりニュアンス的な偏見が明らかになった。
例えば、女性はより笑顔と幸福で若く描かれ、男性はより中立的な表現と怒りを持つ年長者として描かれ、生成的AIモデルが意図せず女性を男性よりも寛容で有能でないと描写するリスクがあった。
このようなニュアンスバイアスは、その過度な性質上、無意識に知覚を透過し、修正がより難しいため、より問題となる可能性がある。
バイアスの程度はモデルによって異なるが、バイアスの方向は商用とオープンソースのAIジェネレータの両方で一貫していた。
これらのツールが一般的になるにつれて、我々の研究は、生成的AIの様々なバイアスを特定し緩和する緊急性を強調し、AI技術がより包括的な未来においてすべての人類に利益をもたらすことを確実にするコミットメントを強化する。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Generative AI Carries Non-Democratic Biases and Stereotypes: Representation of Women, Black Individuals, Age Groups, and People with Disability in AI-Generated Images across Occupations [0.0]
このエッセイは、生成的AIがアウトプットにエクイティ保存グループを含んでいるか、あるいは除外しているかを強調することを目的としている。
この結果から、生成的AIは性別、人種、年齢、可視性障害について公平に包括的ではないことが明らかとなった。
論文 参考訳(メタデータ) (2024-09-20T19:47:31Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Smiling Women Pitching Down: Auditing Representational and
Presentational Gender Biases in Image Generative AI [0.6990493129893111]
153職種にまたがる15,300 DALL-E 2画像における2つの職業性バイアスの頻度について検討した。
DALL-E 2は、女性支配領域において女性を過剰に表現し、女性支配領域において女性を過剰に表現する。
本研究は,DALL-E 2における表現バイアスと提示バイアスを,Google Imagesと比較して明らかにした。
論文 参考訳(メタデータ) (2023-05-17T20:59:10Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Responsible AI: Gender bias assessment in emotion recognition [6.833826997240138]
本研究は、顔認識のための深層学習手法における性別バイアスの研究を目的とする。
より多くのバイアスニューラルネットワークは、男性と女性のテストセット間の感情認識のより大きな精度のギャップを示しています。
論文 参考訳(メタデータ) (2021-03-21T17:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。