論文の概要: Inclusive content reduces racial and gender biases, yet non-inclusive content dominates popular culture
- arxiv url: http://arxiv.org/abs/2405.06404v2
- Date: Tue, 19 Nov 2024 10:21:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:34:17.938180
- Title: Inclusive content reduces racial and gender biases, yet non-inclusive content dominates popular culture
- Title(参考訳): 包括的コンテンツは人種や性別の偏見を減少させるが、非包括的コンテンツは大衆文化を支配している
- Authors: Nouar AlDahoul, Hazem Ibrahim, Minsu Park, Talal Rahwan, Yasir Zaki,
- Abstract要約: 私たちは最先端の機械学習モデルを使用して、50年以上にわたって30万以上の画像を分類しています。
人種的少数派は白人よりもはるかに頻度が低く、それらが現れると、顕著に描写されなくなる。
また、女性は全身で描かれる傾向が強く、男性は顔で描かれる傾向が強いこともわかりました。
- 参考スコア(独自算出の注目度): 1.4204016278692333
- License:
- Abstract: Images are often termed as representations of perceived reality. As such, racial and gender biases in popular culture and visual media could play a critical role in shaping people's perceptions of society. While previous research has made significant progress in exploring the frequency and discrepancies in racial and gender group appearances in visual media, it has largely overlooked important nuances in how these groups are portrayed, as it lacked the ability to systematically capture such complexities at scale over time. To address this gap, we examine two media forms of varying target audiences, namely fashion magazines and movie posters. Accordingly, we collect a large dataset comprising over 300,000 images spanning over five decades and utilize state-of-the-art machine learning models to classify not only race and gender but also the posture, expressed emotional state, and body composition of individuals featured in each image. We find that racial minorities appear far less frequently than their White counterparts, and when they do appear, they are portrayed less prominently. We also find that women are more likely to be portrayed with their full bodies, whereas men are more frequently presented with their faces. Finally, through a series of survey experiments, we find evidence that exposure to inclusive content can help reduce biases in perceptions of minorities, while racially and gender-homogenized content may reinforce and amplify such biases. Taken together, our findings highlight that racial and gender biases in visual media remain pervasive, potentially exacerbating existing stereotypes and inequalities.
- Abstract(参考訳): イメージはしばしば知覚現実の表現として扱われる。
このように、大衆文化やビジュアルメディアにおける人種や性別の偏見は、人々の社会に対する認識を形成する上で重要な役割を果たす可能性がある。
これまでの研究では、人種や性別の集団の出現頻度や不一致を視覚メディアで探究する上で大きな進歩を遂げてきたが、これらの集団がどう描かれているかという重要なニュアンスはほとんど見過ごされてはいない。
このギャップに対処するため、ファッション雑誌とポスターの2つのメディア形態の異なるターゲットオーディエンスについて検討する。
そこで、50年以上にわたる30万以上の画像からなる大規模なデータセットを収集し、最先端の機械学習モデルを用いて、人種や性別だけでなく、姿勢、表現された感情状態、各画像に特徴付けられる個人の身体構成を分類する。
人種的少数派は白人よりもはるかに頻度が低く、それらが現れると、顕著に描写されなくなる。
また、女性は全身で描かれる傾向が強く、男性は顔で描かれる傾向が強いこともわかりました。
最後に、一連の調査実験を通じて、包括的コンテンツへの露出がマイノリティの知覚における偏見を減らすのに有効であることを示す一方、人種的および性別的に均質化されたコンテンツはそのような偏見を強化し増幅する可能性がある。
まとめると、われわれの研究結果は、ビジュアルメディアにおける人種的・性別的偏見が広まり続けており、既存のステレオタイプや不平等が悪化する可能性があることを浮き彫りにしている。
関連論文リスト
- A Longitudinal Analysis of Racial and Gender Bias in New York Times and Fox News Images and Articles [2.482116411483087]
New York Times(NYT)とFox News(Fox)の123,337枚の画像と441,321個のオンラインニュース記事のデータセットを使用します。
ニュース記事に埋め込まれた画像における人種・性別集団の出現頻度と優位性について検討する。
NYTはFoxに比べて、人種的少数派のイメージが圧倒的に多いことがわかりました。
論文 参考訳(メタデータ) (2024-10-29T09:42:54Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性が黒い肌でひげを生やし、伝統的な頭飾りを身に着けているという、重要な人種的均質化を明らかにしている。
事前に登録された実験を用いて、包括的AI生成顔で提示されることで、人々の人種的および性別的偏見が減少し、非包括的偏見が提示されることで、そのような偏見が増大することを示した。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - Understanding Divergent Framing of the Supreme Court Controversies:
Social Media vs. News Outlets [56.67097829383139]
我々は、米国最高裁判所の一連の判決に関して、ソーシャルメディアや伝統的なメディアのフレーミングにおける微妙な区別に焦点を当てている。
メディアが肯定的な行動や中絶の権利を扱い、学生ローンの話題はより深いコンセンサスを示す傾向にある。
論文 参考訳(メタデータ) (2023-09-18T06:40:21Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z) - Computational appraisal of gender representativeness in popular movies [0.0]
本稿では、このような経験的観測をスケールアップするために、自動計算法がどのように用いられるかを説明する。
具体的には、30年以上にわたる人気映画の幅広いセットに顔と性別検出アルゴリズムを適用し、スクリーン上での男女のプレゼンスを大規模に評価する。
論文 参考訳(メタデータ) (2020-09-16T13:15:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。