論文の概要: She Works, He Works: A Curious Exploration of Gender Bias in AI-Generated Imagery
- arxiv url: http://arxiv.org/abs/2407.18524v1
- Date: Fri, 26 Jul 2024 05:56:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 14:20:08.065349
- Title: She Works, He Works: A Curious Exploration of Gender Bias in AI-Generated Imagery
- Title(参考訳): AI生成画像におけるジェンダーバイアスの謎
- Authors: Amalia Foka,
- Abstract要約: 本稿では, 建設作業員のAI画像における性別バイアスについて検討し, 男女の描写における相違点を明らかにする。
この分析は、グリセルダ・ポロックの視覚文化とジェンダーの理論に基づいており、AIモデルは女性の人物をより権威的で有能な人物として描写しながらセクシュアライズする傾向があることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines gender bias in AI-generated imagery of construction workers, highlighting discrepancies in the portrayal of male and female figures. Grounded in Griselda Pollock's theories on visual culture and gender, the analysis reveals that AI models tend to sexualize female figures while portraying male figures as more authoritative and competent. These findings underscore AI's potential to mirror and perpetuate societal biases, emphasizing the need for critical engagement with AI-generated content. The project contributes to discussions on the ethical implications of AI in creative practices and its broader impact on cultural perceptions of gender.
- Abstract(参考訳): 本稿では, 建設作業員のAI画像における性別バイアスについて検討し, 男女の描写における相違点を明らかにする。
この分析は、グリセルダ・ポロックの視覚文化とジェンダーの理論に基づいており、AIモデルは女性の人物をより権威的で有能な人物として描写しながらセクシュアライズする傾向があることを示している。
これらの発見は、AIが生成したコンテンツに対する批判的関与の必要性を強調し、社会的バイアスを反映し、永続するAIの可能性を強調している。
このプロジェクトは、創造的な実践におけるAIの倫理的意味と、ジェンダーの文化的知覚に対するその広範な影響に関する議論に貢献する。
関連論文リスト
- Thinking beyond Bias: Analyzing Multifaceted Impacts and Implications of AI on Gendered Labour [1.5839621757142595]
本稿では、ジェンダー労働に対するAIの広範な影響を探求する必要性を強調する。
私たちは、AI産業がより大きな経済構造に不可欠な要素であるということが、仕事の性質をいかに変えているかに注意を払っています。
論文 参考訳(メタデータ) (2024-06-23T20:09:53Z) - A multitask learning framework for leveraging subjectivity of annotators to identify misogyny [47.175010006458436]
本研究では,誤識別システムの性能向上を目的としたマルチタスク学習手法を提案する。
6つのプロファイルグループにまたがる性別と年齢を考慮したモデル設計において,アノテータからさまざまな視点を取り入れた。
本研究は、コンテンツモデレーションを推進し、効果的なオンラインモデレーションシステムを構築するための多様な視点を受け入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-22T15:06:08Z) - Bias in Generative AI [2.5830293457323266]
本研究では、AIジェネレータの潜在的なバイアスを調べるために、3つの一般的な生成人工知能(AI)ツールによって生成された画像を分析した。
3つのAIジェネレータはすべて、女性とアフリカ系アメリカ人に対する偏見を示しました。
女性はより笑顔と幸福で若く描かれ、男性はより中立な表情と怒りで年上のように描かれていた。
論文 参考訳(メタデータ) (2024-03-05T07:34:41Z) - The Male CEO and the Female Assistant: Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,T2Iモデルを二重オブジェクト生成設定で体系的に評価するPaired Stereotype Test (PST) フレームワークを提案する。
PSTは、二重オブジェクト生成タスク、すなわち、同じイメージで2人を生成するタスクである。
DALLE-3は、一見公平で反ステレオタイプな単体画像でも、PST下では顕著な偏見を示す。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Voices of Her: Analyzing Gender Differences in the AI Publication World [26.702520904075044]
我々は、AI分野における78K研究者のAI Scholarデータセットを用いて、いくつかの性別差を同定する。
女性第一著者の論文は、より長い文章、よりポジティブな感情の言葉、よりキャッチーなタイトルなど、異なる言語スタイルを示している。
私たちの分析は、私たちのAIコミュニティにおける現在の人口統計トレンドの窓口を提供し、将来、より多くの男女平等と多様性を奨励します。
論文 参考訳(メタデータ) (2023-05-24T00:40:49Z) - Smiling Women Pitching Down: Auditing Representational and
Presentational Gender Biases in Image Generative AI [0.6990493129893111]
153職種にまたがる15,300 DALL-E 2画像における2つの職業性バイアスの頻度について検討した。
DALL-E 2は、女性支配領域において女性を過剰に表現し、女性支配領域において女性を過剰に表現する。
本研究は,DALL-E 2における表現バイアスと提示バイアスを,Google Imagesと比較して明らかにした。
論文 参考訳(メタデータ) (2023-05-17T20:59:10Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。