論文の概要: Gender Stereotypes in Professional Roles Among Saudis: An Analytical Study of AI-Generated Images Using Language Models
- arxiv url: http://arxiv.org/abs/2509.21466v1
- Date: Thu, 25 Sep 2025 19:30:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.94396
- Title: Gender Stereotypes in Professional Roles Among Saudis: An Analytical Study of AI-Generated Images Using Language Models
- Title(参考訳): サウジアラビア人の職業的役割におけるジェンダーステレオタイプ:言語モデルを用いたAI生成画像の分析
- Authors: Khaloud S. AlKhalifah, Malak Mashaabi, Hend Al-Khalifa,
- Abstract要約: ImageFX, DALL-E V3, およびGrokが生成した1,006の画像を, 56種類のサウジアラビアの専門職に対して分析した。
ImageFXの出力は85%が男性、Grok 86.6%が男性、DALL-E V3が96%である。
反ステレオタイプ的イメージは、真に進歩的な描写というよりはむしろ文化的な誤解から生じることが多い。
- 参考スコア(独自算出の注目度): 0.6053648545114841
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study investigates the extent to which contemporary Text-to-Image artificial intelligence (AI) models perpetuate gender stereotypes and cultural inaccuracies when generating depictions of professionals in Saudi Arabia. We analyzed 1,006 images produced by ImageFX, DALL-E V3, and Grok for 56 diverse Saudi professions using neutral prompts. Two trained Saudi annotators evaluated each image on five dimensions: perceived gender, clothing and appearance, background and setting, activities and interactions, and age. A third senior researcher adjudicated whenever the two primary raters disagreed, yielding 10,100 individual judgements. The results reveal a strong gender imbalance, with ImageFX outputs being 85\% male, Grok 86.6\% male, and DALL-E V3 96\% male, indicating that DALL-E V3 exhibited the strongest overall gender stereotyping. This imbalance was most evident in leadership and technical roles. Moreover, cultural inaccuracies in clothing, settings, and depicted activities were frequently observed across all three models. Counter-stereotypical images often arise from cultural misinterpretations rather than genuinely progressive portrayals. We conclude that current models mirror societal biases embedded in their training data, generated by humans, offering only a limited reflection of the Saudi labour market's gender dynamics and cultural nuances. These findings underscore the urgent need for more diverse training data, fairer algorithms, and culturally sensitive evaluation frameworks to ensure equitable and authentic visual outputs.
- Abstract(参考訳): 本研究では、サウジアラビアのプロの描写を生成する際に、現代テクスト・トゥ・イメージ・人工知能(AI)モデルがジェンダー・ステレオタイプや文化的不正確性を持続する程度について検討する。
ImageFX, DALL-E V3, およびGrokが生成した1,006の画像を、中立的なプロンプトを用いて56種類のサウジアラビアの専門職に対して解析した。
2つの訓練されたサウジアラビアのアノテーターは、それぞれのイメージを知覚された性別、服装と外観、背景と設定、活動と相互作用、年齢の5つの次元で評価した。
3人目の上級研究員は、2人の原告が反対するたびに判決を下し、10,100人の個人的判断を下した。
その結果、イメージFXの出力は85 %、Grok 86.6 %、DALL-E V3 96 %であり、DALL-E V3 は最も大きな男女ステレオタイピングを示した。
この不均衡は、リーダーシップと技術的な役割において最も顕著であった。
さらに, 衣服, 設定, 描写活動の文化的不正確性は, 3つのモデルでよく観察された。
反ステレオタイプ的イメージは、真に進歩的な描写というよりはむしろ文化的な誤解から生じることが多い。
現在のモデルでは、人間のトレーニングデータに埋め込まれた社会的バイアスを反映し、サウジアラビアの労働市場のジェンダーダイナミクスと文化的ニュアンスを限定的に反映していると結論付けている。
これらの知見は、より多様なトレーニングデータ、より公平なアルゴリズム、そして文化的に敏感な評価フレームワークが、公平で真正なビジュアルアウトプットを確保するために緊急に必要であることを示す。
関連論文リスト
- Automated Evaluation of Gender Bias Across 13 Large Multimodal Models [0.0]
大規模マルチモーダルモデル(LMM)はテキスト・ツー・イメージ生成に革命をもたらしたが、トレーニングデータに有害な社会的バイアスが持続するリスクがある。
AI生成画像における社会的バイアスを評価するベンチマークである,Aymara Image Fairness Evaluationを導入する。
我々は,75のプロシージャ生成性中立性プロンプトを用いて13の市販LMMを試験し,ステレオタイプ,ステレオタイプ,非ステレオタイプの職業の人を生成する。
論文 参考訳(メタデータ) (2025-09-08T15:54:25Z) - A Large Scale Analysis of Gender Biases in Text-to-Image Generative Models [45.55471356313678]
本稿では,テキスト・ツー・イメージ(T2I)モデルにおける性別バイアスに関する大規模な研究について述べる。
我々は3,217のジェンダーニュートラルプロンプトのデータセットを作成し、5つの主要なT2Iモデルから1プロンプトあたり200画像を生成する。
生成した画像中の知覚された人物の性別を自動的に検出し、性別の異なる人物や複数の人物の像をフィルタリングする。
論文 参考訳(メタデータ) (2025-03-30T11:11:51Z) - Effect of Gender Fair Job Description on Generative AI Images [2.5234156040689237]
本研究は,OpenAI DALL-E 3 & Black Forest FLUX.1が生成したSTEM占領画像におけるジェンダー表現を,3つの言語形式で150のプロンプトを用いて分析した。
結果,全形態に有意な男性偏見がみられ,ドイツ式は偏見が低いが,STEM群では男性を過度に表し,社会職業群では混在した結果がみられた。
論文 参考訳(メタデータ) (2025-02-25T10:21:29Z) - Gender Bias in Text-to-Video Generation Models: A case study of Sora [63.064204206220936]
本研究では,OpenAIのテキスト・ビデオ生成モデルであるSoraにおけるジェンダーバイアスの存在について検討した。
性別ニュートラルとステレオタイププロンプトの多種多様なセットから生成されたビデオを分析し、バイアスの有意な証拠を明らかにした。
論文 参考訳(メタデータ) (2024-12-30T18:08:13Z) - The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Smiling Women Pitching Down: Auditing Representational and
Presentational Gender Biases in Image Generative AI [0.6990493129893111]
153職種にまたがる15,300 DALL-E 2画像における2つの職業性バイアスの頻度について検討した。
DALL-E 2は、女性支配領域において女性を過剰に表現し、女性支配領域において女性を過剰に表現する。
本研究は,DALL-E 2における表現バイアスと提示バイアスを,Google Imagesと比較して明らかにした。
論文 参考訳(メタデータ) (2023-05-17T20:59:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。