論文の概要: Contrastive Language-Vision AI Models Pretrained on Web-Scraped
Multimodal Data Exhibit Sexual Objectification Bias
- arxiv url: http://arxiv.org/abs/2212.11261v2
- Date: Mon, 15 May 2023 23:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 19:19:39.492071
- Title: Contrastive Language-Vision AI Models Pretrained on Web-Scraped
Multimodal Data Exhibit Sexual Objectification Bias
- Title(参考訳): Web-Scraped Multimodal Data Exhibit Sexual Objectification Bias を用いたコントラスト言語ビジョンAIモデル
- Authors: Robert Wolfe, Yiwei Yang, Bill Howe, Aylin Caliskan
- Abstract要約: ウェブスクラップで訓練された言語ビジョンAIモデルは、性的対象化のバイアスを学ぶ。
女性プロのイメージは、男性プロのイメージと比較して性描写と関連している可能性が高い。
- 参考スコア(独自算出の注目度): 11.6727088473067
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nine language-vision AI models trained on web scrapes with the Contrastive
Language-Image Pretraining (CLIP) objective are evaluated for evidence of a
bias studied by psychologists: the sexual objectification of girls and women,
which occurs when a person's human characteristics, such as emotions, are
disregarded and the person is treated as a body. We replicate three experiments
in psychology quantifying sexual objectification and show that the phenomena
persist in AI. A first experiment uses standardized images of women from the
Sexual OBjectification and EMotion Database, and finds that human
characteristics are disassociated from images of objectified women: the model's
recognition of emotional state is mediated by whether the subject is fully or
partially clothed. Embedding association tests (EATs) return significant effect
sizes for both anger (d >0.80) and sadness (d >0.50), associating images of
fully clothed subjects with emotions. GRAD-CAM saliency maps highlight that
CLIP gets distracted from emotional expressions in objectified images. A second
experiment measures the effect in a representative application: an automatic
image captioner (Antarctic Captions) includes words denoting emotion less than
50% as often for images of partially clothed women than for images of fully
clothed women. A third experiment finds that images of female professionals
(scientists, doctors, executives) are likely to be associated with sexual
descriptions relative to images of male professionals. A fourth experiment
shows that a prompt of "a [age] year old girl" generates sexualized images (as
determined by an NSFW classifier) up to 73% of the time for VQGAN-CLIP and
Stable Diffusion; the corresponding rate for boys never surpasses 9%. The
evidence indicates that language-vision AI models trained on web scrapes learn
biases of sexual objectification, which propagate to downstream applications.
- Abstract(参考訳): ウェブスクレイプで訓練された9つの言語ビジョンaiモデルと対照的な言語イメージ前訓練(clip)の目的を、心理学者が研究したバイアスの証拠として評価する: 感情のような人間の特徴が無視され、その人物が身体として扱われるときに起こる、少女と女性の性的対象化。
心理学における3つの実験を再現し、その現象がAIで持続していることを示す。
第1の実験では、性的対象化と感情データベースからの女性の標準化されたイメージを使用し、人間の特性が対象化された女性のイメージとは無関係であることを見出した。
埋め込み関連テスト (eats) は怒り (d >0.80) と悲しみ (d >0.50) の両方に対して大きな効果を返し、完全に服を着た被験者のイメージと感情を関連付ける。
GRAD-CAMサリエンシマップは、CLIPが対象画像の感情表現から逸脱していることを示している。
自動画像キャプション装置(antarctic captions)は、完全に服を着た女性の画像よりも、部分的に服を着た女性の画像の50%未満の感情を示す単語を含む。
第3の実験では、女性専門家(科学者、医師、役員)のイメージは、男性専門家のイメージと比較して性的な説明に結びついていることが判明した。
第4の実験では、"a [age] old girl"のプロンプトが、VQGAN-CLIPとStable Diffusionの73%の時間(NSFW分類器によって決定される)で性的なイメージを生成する。
この証拠は、ウェブスクラップで訓練された言語ビジョンAIモデルは、下流のアプリケーションに伝播する性的対象化のバイアスを学ぶことを示している。
関連論文リスト
- The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Stable Diffusion Exposed: Gender Bias from Prompt to Image [25.702257177921048]
本稿では,安定拡散画像における生成過程の各ステップにおける性別指標の影響を解析する評価プロトコルを提案する。
以上の結果から,特定の性別に合わせて調整された楽器や,全体のレイアウトの変化など,物体の描写の違いの存在が示唆された。
論文 参考訳(メタデータ) (2023-12-05T10:12:59Z) - Socratis: Are large multimodal models emotionally aware? [63.912414283486555]
既存の感情予測ベンチマークでは、様々な理由で画像やテキストが人間にもたらす感情の多様性を考慮していない。
社会反応ベンチマークであるソクラティス (Socratis) を提案し, それぞれのイメージ・キャプション(IC) ペアに複数の感情とそれらを感じる理由をアノテートする。
我々は、ICペアが与えられた感情を感じる理由を生成するために、最先端のマルチモーダルな大規模言語モデルの能力をベンチマークする。
論文 参考訳(メタデータ) (2023-08-31T13:59:35Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Smiling Women Pitching Down: Auditing Representational and
Presentational Gender Biases in Image Generative AI [0.6990493129893111]
153職種にまたがる15,300 DALL-E 2画像における2つの職業性バイアスの頻度について検討した。
DALL-E 2は、女性支配領域において女性を過剰に表現し、女性支配領域において女性を過剰に表現する。
本研究は,DALL-E 2における表現バイアスと提示バイアスを,Google Imagesと比較して明らかにした。
論文 参考訳(メタデータ) (2023-05-17T20:59:10Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Real-time Emotion and Gender Classification using Ensemble CNN [0.0]
本稿では,人物の感情や性別をリアルタイムに検出できるシステムを構築するためのEnsemble CNNの実装について述べる。
我々の研究は、単一の顔画像だけでなく、複数の顔画像上で感情や性別を予測することができる。
論文 参考訳(メタデータ) (2021-11-15T13:51:35Z) - Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases [3.0349733976070015]
本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
一般的なベンチマーク画像データセットであるImageNetでトレーニングされた最先端の教師なしモデルは、人種、性別、交差点バイアスを自動的に学習する。
論文 参考訳(メタデータ) (2020-10-28T15:55:49Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。