論文の概要: Bias in Generative AI
- arxiv url: http://arxiv.org/abs/2403.02726v1
- Date: Tue, 5 Mar 2024 07:34:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 15:50:44.505401
- Title: Bias in Generative AI
- Title(参考訳): ジェネレーティブAIにおけるバイアス
- Authors: Mi Zhou, Vibhanshu Abhishek, Timothy Derdenger, Jaymo Kim, Kannan
Srinivasan
- Abstract要約: 本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
- 参考スコア(独自算出の注目度): 2.5830293457323266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study analyzed images generated by three popular generative artificial
intelligence (AI) tools - Midjourney, Stable Diffusion, and DALLE 2 -
representing various occupations to investigate potential bias in AI
generators. Our analysis revealed two overarching areas of concern in these AI
generators, including (1) systematic gender and racial biases, and (2) subtle
biases in facial expressions and appearances. Firstly, we found that all three
AI generators exhibited bias against women and African Americans. Moreover, we
found that the evident gender and racial biases uncovered in our analysis were
even more pronounced than the status quo when compared to labor force
statistics or Google images, intensifying the harmful biases we are actively
striving to rectify in our society. Secondly, our study uncovered more nuanced
prejudices in the portrayal of emotions and appearances. For example, women
were depicted as younger with more smiles and happiness, while men were
depicted as older with more neutral expressions and anger, posing a risk that
generative AI models may unintentionally depict women as more submissive and
less competent than men. Such nuanced biases, by their less overt nature, might
be more problematic as they can permeate perceptions unconsciously and may be
more difficult to rectify. Although the extent of bias varied depending on the
model, the direction of bias remained consistent in both commercial and
open-source AI generators. As these tools become commonplace, our study
highlights the urgency to identify and mitigate various biases in generative
AI, reinforcing the commitment to ensuring that AI technologies benefit all of
humanity for a more inclusive future.
- Abstract(参考訳): 本研究では,汎用人工知能(ai)ツールであるmidjourney,stable diffusion,dalle 2で生成した画像を分析し,ai生成器の潜在的なバイアスについて検討した。
分析の結果,(1)システマティックな性別や人種的偏見,(2)表情や外見の微妙な偏見など,AIジェネレータの2つの大まかな関心領域が明らかになった。
まず、すべてのAIジェネレータが女性やアフリカ系アメリカ人に対する偏見を示していた。
さらに、我々の分析で明らかになった明らかな性別や人種の偏見は、労働力統計やGoogleの画像と比較すると、現状よりもさらに顕著であり、我々の社会で積極的に試みている有害な偏見が増していることがわかった。
第2に,感情や外見の描写において,よりニュアンス的な偏見が明らかになった。
例えば、女性はより笑顔と幸福で若く描かれ、男性はより中立的な表現と怒りを持つ年長者として描かれ、生成的AIモデルが意図せず女性を男性よりも寛容で有能でないと描写するリスクがあった。
このようなニュアンスバイアスは、その過度な性質上、無意識に知覚を透過し、修正がより難しいため、より問題となる可能性がある。
バイアスの程度はモデルによって異なるが、バイアスの方向は商用とオープンソースのAIジェネレータの両方で一貫していた。
これらのツールが一般的になるにつれて、我々の研究は、生成的AIの様々なバイアスを特定し緩和する緊急性を強調し、AI技術がより包括的な未来においてすべての人類に利益をもたらすことを確実にするコミットメントを強化する。
関連論文リスト
- The Male CEO and the Female Assistant: Probing Gender Biases in
Text-To-Image Models Through Paired Stereotype Test [68.84245853250906]
DALLE-3のような最近の大規模テキスト・ツー・イメージ(T2I)モデルは、新しいアプリケーションにおいて大きな可能性を秘めているが、前例のない公平さの課題に直面している。
本稿では,Paired Stereotype Test (PST) のバイアス評価フレームワークを提案する。
以上の結果から,現代T2Iモデルにおける男女差の複雑なパターンが明らかとなり,マルチモーダル生成システムにおける批判的公平性の課題が浮き彫りになった。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - Smiling Women Pitching Down: Auditing Representational and
Presentational Gender Biases in Image Generative AI [0.6990493129893111]
153職種にまたがる15,300 DALL-E 2画像における2つの職業性バイアスの頻度について検討した。
DALL-E 2は、女性支配領域において女性を過剰に表現し、女性支配領域において女性を過剰に表現する。
本研究は,DALL-E 2における表現バイアスと提示バイアスを,Google Imagesと比較して明らかにした。
論文 参考訳(メタデータ) (2023-05-17T20:59:10Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Responsible AI: Gender bias assessment in emotion recognition [6.833826997240138]
本研究は、顔認識のための深層学習手法における性別バイアスの研究を目的とする。
より多くのバイアスニューラルネットワークは、男性と女性のテストセット間の感情認識のより大きな精度のギャップを示しています。
論文 参考訳(メタデータ) (2021-03-21T17:00:21Z) - Towards Socially Responsible AI: Cognitive Bias-Aware Multi-Objective
Learning [24.522730093209262]
人類社会は、社会的偏見や大量不正につながる認知バイアスに悩まされた長い歴史を持っていた。
偏見を考慮した多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-14T17:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。