論文の概要: Inclusive content reduces racial and gender biases, yet non-inclusive content dominates popular media outlets
- arxiv url: http://arxiv.org/abs/2405.06404v1
- Date: Fri, 10 May 2024 11:34:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 15:58:09.061903
- Title: Inclusive content reduces racial and gender biases, yet non-inclusive content dominates popular media outlets
- Title(参考訳): インクルーシブコンテンツは人種や性別の偏見を減らすが、非インクルーシブコンテンツは人気メディアを支配している
- Authors: Nouar AlDahoul, Hazem Ibrahim, Minsu Park, Talal Rahwan, Yasir Zaki,
- Abstract要約: 本研究では、人種や性別の集団が人気メディア画像に描かれる様子を考察する。
私たちは50年以上にわたって30万以上の画像を収集し、最先端の機械学習モデルを使用しています。
人種的少数派は白人よりもはるかに少なく見える。
また、女性は全身をイメージで表現する傾向が強く、男性は顔で表現する傾向が強いこともわかりました。
- 参考スコア(独自算出の注目度): 1.4204016278692333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Images are often termed as representations of perceived reality. As such, racial and gender biases in popular media imagery could play a vital role in shaping people's perceptions of society. While inquiries into such biases have examined the frequency at which different racial and gender groups appear in different forms of media, the literature still lacks a large-scale longitudinal study that further examines the manner in which these groups are portrayed. To fill this gap, we examine three media forms, namely fashion magazines, movie posters, and advertisements. To do so, we collect a large dataset comprising over 300,000 images spanning over five decades and utilize state-of-the-art machine learning models to not only classify race and gender but also identify the posture, emotional state, and body composition of the person featured in each image. We find that racial minorities appear far less frequently than their White counterparts, and when they do appear, they are portrayed less prominently and tend to convey more negative emotions. We also find that women are more likely to be portrayed with their full bodies in images, whereas men are more frequently presented with their faces. This disparity exemplifies face-ism, where emphasizing faces over bodies has been linked to perceptions of higher competence and intelligence. Finally, through a series of survey experiments, we show that exposure to inclusive content-rather than racially and gender-homogenized content -- significantly reduces perception biases towards minorities in areas such as household income, hiring merit, beauty standards, leadership positions, and the representation of women in the workplace. Taken together, our findings demonstrate that racial and gender biases in media continue to be an ongoing problem that may exacerbate existing stereotypes.
- Abstract(参考訳): イメージはしばしば知覚現実の表現として扱われる。
このように、人気のあるメディア画像における人種的偏見と性別的偏見は、人々の社会に対する認識を形作る上で重要な役割を果たす可能性がある。
このような偏見に関する調査は、異なる人種グループと性別グループが異なる形態のメディアに現れる頻度を調べてきたが、これらの集団が描写される方法をさらに調べる大規模な縦断的研究はいまだに欠けている。
このギャップを埋めるために,ファッション雑誌,ポスター,広告の3つのメディア形態を検討した。
そのために、50年以上にわたる30万以上の画像からなる大規模なデータセットを収集し、最先端の機械学習モデルを用いて、人種と性別を分類するだけでなく、各画像に特徴付けられる人物の姿勢、感情状態、身体構成を特定する。
人種的少数派は白人よりもはるかに頻度が低く、それらが現れると、顕著に描写されなくなり、より否定的な感情を伝達する傾向がある。
また、女性は全身をイメージで表現する傾向が強く、男性は顔で表現する傾向が強いこともわかりました。
この格差は、身体に対する顔の強調が、より高い能力と知性の知覚と結びついている、顔主義の例である。
最後に、一連の調査実験を通じて、人種的・性別的に均質なコンテンツよりも包括的コンテンツへの露出が、家計収入、雇用のメリット、美容基準、リーダーシップのポジション、職場における女性の表現といった分野におけるマイノリティに対する認知バイアスを著しく減少させることを示した。
まとめると、メディアにおける人種的偏見とジェンダー的偏見は、既存のステレオタイプを悪化させる可能性のある継続的な問題であることを示している。
関連論文リスト
- A Longitudinal Analysis of Racial and Gender Bias in New York Times and Fox News Images and Articles [2.482116411483087]
New York Times(NYT)とFox News(Fox)の123,337枚の画像と441,321個のオンラインニュース記事のデータセットを使用します。
ニュース記事に埋め込まれた画像における人種・性別集団の出現頻度と優位性について検討する。
NYTはFoxに比べて、人種的少数派のイメージが圧倒的に多いことがわかりました。
論文 参考訳(メタデータ) (2024-10-29T09:42:54Z) - Intertwined Biases Across Social Media Spheres: Unpacking Correlations in Media Bias Dimensions [12.588239777597847]
メディアバイアスは、ステレオタイプを強化し、社会的分裂を悪化させることによって、公共の認知を著しく形作る。
われわれは過去5年間にYouTubeとRedditから収集された新しいデータセットを紹介した。
私たちのデータセットには、幅広いバイアス次元にわたるYouTubeコンテンツの自動アノテーションが含まれています。
論文 参考訳(メタデータ) (2024-08-27T21:03:42Z) - Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性がひげを生やし、茶色く肌を生やし、伝統的な服装を身に着けている、重要な人種的均質化を示している。
本稿では、画像を生成する際に、人種や性別の望ましい分布をユーザが指定できるようにデバイアス化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - Understanding Divergent Framing of the Supreme Court Controversies:
Social Media vs. News Outlets [56.67097829383139]
我々は、米国最高裁判所の一連の判決に関して、ソーシャルメディアや伝統的なメディアのフレーミングにおける微妙な区別に焦点を当てている。
メディアが肯定的な行動や中絶の権利を扱い、学生ローンの話題はより深いコンセンサスを示す傾向にある。
論文 参考訳(メタデータ) (2023-09-18T06:40:21Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Easily Accessible Text-to-Image Generation Amplifies Demographic
Stereotypes at Large Scale [61.555788332182395]
危険で複雑なステレオタイプを増幅する機械学習モデルの可能性を検討する。
さまざまな通常のプロンプトがステレオタイプを生成しており、それらは単に特性、記述子、職業、オブジェクトに言及するプロンプトを含む。
論文 参考訳(メタデータ) (2022-11-07T18:31:07Z) - Studying Bias in GANs through the Lens of Race [91.95264864405493]
本研究では, 画像生成モデルの性能と評価が, 学習データセットの人種構成にどのように影響するかを検討する。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
論文 参考訳(メタデータ) (2022-09-06T22:25:56Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。