論文の概要: Contrastive Language-Vision AI Models Pretrained on Web-Scraped
Multimodal Data Exhibit Sexual Objectification Bias
- arxiv url: http://arxiv.org/abs/2212.11261v1
- Date: Wed, 21 Dec 2022 18:54:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 13:25:20.823324
- Title: Contrastive Language-Vision AI Models Pretrained on Web-Scraped
Multimodal Data Exhibit Sexual Objectification Bias
- Title(参考訳): Web-Scraped Multimodal Data Exhibit Sexual Objectification Bias を用いたコントラスト言語ビジョンAIモデル
- Authors: Robert Wolfe, Yiwei Yang, Bill Howe, Aylin Caliskan
- Abstract要約: 自動収集されたWebスクラップに基づいてトレーニングされた9つの言語ビジョンAIモデルを評価する。
モデルは、下流の応用に伝播する性的対象化のバイアスを学ぶ。
- 参考スコア(独自算出の注目度): 11.6727088473067
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nine language-vision AI models trained on web scrapes with the Contrastive
Language-Image Pretraining (CLIP) objective are evaluated for evidence of a
bias studied by psychologists: the sexual objectification of girls and women,
which occurs when a person's human characteristics are disregarded and the
person is treated as a body or a collection of body parts. A first experiment
uses standardized images of women from the Sexual OBjectification and EMotion
Database, and finds that, commensurate with prior research in psychology, human
characteristics are disassociated from images of objectified women: the model's
recognition of emotional state is mediated by whether the subject is fully or
partially clothed. Embedding association tests (EATs) return significant effect
sizes for both anger (d >.8) and sadness (d >.5). A second experiment measures
the effect in a representative application: an automatic image captioner
(Antarctic Captions) includes words denoting emotion less than 50% as often for
images of partially clothed women than for images of fully clothed women. A
third experiment finds that images of female professionals (scientists,
doctors, executives) are likely to be associated with sexual descriptions
relative to images of male professionals. A fourth experiment shows that a
prompt of "a [age] year old girl" generates sexualized images (as determined by
an NSFW classifier) up to 73% of the time for VQGAN-CLIP (age 17), and up to
40% of the time for Stable Diffusion (ages 14 and 18); the corresponding rate
for boys never surpasses 9%. The evidence indicates that language-vision AI
models trained on automatically collected web scrapes learn biases of sexual
objectification, which propagate to downstream applications.
- Abstract(参考訳): ウェブスクレイプで訓練された9つの言語ビジョンaiモデルと、比較言語イメージ前訓練(clip)の目的とが、心理学者が研究したバイアスの証拠として評価される: 人間の特性が無視され、その人が身体または身体の一部の集まりとして扱われるときに起こる、男女の性的対象化。
最初の実験では、性的対象化・感情データベース(Sexual jectification and EMotion Database)からの女性の標準化画像を使用し、心理学における先行研究と相まって、人間の特性は、対象女性のイメージとは無関係であることが判明した。
埋め込み関連試験 (EAT) は怒り (d >.8) と悲しみ (d >.5) の両方に有意な影響を及ぼす。
自動画像キャプション装置(antarctic captions)は、完全に服を着た女性の画像よりも、部分的に服を着た女性の画像の50%未満の感情を示す単語を含む。
第3の実験では、女性専門家(科学者、医師、役員)のイメージは、男性専門家のイメージと比較して性的な説明に結びついていることが判明した。
第4の実験では、"a [age] old girl"のプロンプトは、VQGAN-CLIPの最大73%(年齢17歳)、安定拡散の最大40%(年齢14歳と18歳)で性的なイメージを生成する(NSFW分類器によって決定される)。
この証拠は、自動的に収集されたウェブスクラップで訓練された言語ビジョンAIモデルが、下流のアプリケーションに伝播する性的対象化のバイアスを学ぶことを示している。
関連論文リスト
- The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - Stable Diffusion Exposed: Gender Bias from Prompt to Image [25.702257177921048]
本稿では,安定拡散画像における生成過程の各ステップにおける性別指標の影響を解析する評価プロトコルを提案する。
以上の結果から,特定の性別に合わせて調整された楽器や,全体のレイアウトの変化など,物体の描写の違いの存在が示唆された。
論文 参考訳(メタデータ) (2023-12-05T10:12:59Z) - Socratis: Are large multimodal models emotionally aware? [63.912414283486555]
既存の感情予測ベンチマークでは、様々な理由で画像やテキストが人間にもたらす感情の多様性を考慮していない。
社会反応ベンチマークであるソクラティス (Socratis) を提案し, それぞれのイメージ・キャプション(IC) ペアに複数の感情とそれらを感じる理由をアノテートする。
我々は、ICペアが与えられた感情を感じる理由を生成するために、最先端のマルチモーダルな大規模言語モデルの能力をベンチマークする。
論文 参考訳(メタデータ) (2023-08-31T13:59:35Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Smiling Women Pitching Down: Auditing Representational and
Presentational Gender Biases in Image Generative AI [0.6990493129893111]
153職種にまたがる15,300 DALL-E 2画像における2つの職業性バイアスの頻度について検討した。
DALL-E 2は、女性支配領域において女性を過剰に表現し、女性支配領域において女性を過剰に表現する。
本研究は,DALL-E 2における表現バイアスと提示バイアスを,Google Imagesと比較して明らかにした。
論文 参考訳(メタデータ) (2023-05-17T20:59:10Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Real-time Emotion and Gender Classification using Ensemble CNN [0.0]
本稿では,人物の感情や性別をリアルタイムに検出できるシステムを構築するためのEnsemble CNNの実装について述べる。
我々の研究は、単一の顔画像だけでなく、複数の顔画像上で感情や性別を予測することができる。
論文 参考訳(メタデータ) (2021-11-15T13:51:35Z) - Image Representations Learned With Unsupervised Pre-Training Contain
Human-like Biases [3.0349733976070015]
本研究では,社会概念の表現とイメージの属性の相関関係を定量化する手法を開発した。
一般的なベンチマーク画像データセットであるImageNetでトレーニングされた最先端の教師なしモデルは、人種、性別、交差点バイアスを自動的に学習する。
論文 参考訳(メタデータ) (2020-10-28T15:55:49Z) - InsideBias: Measuring Bias in Deep Networks and Application to Face
Gender Biometrics [73.85525896663371]
この研究は、ディープニューラルネットワークアーキテクチャに基づく学習プロセスのバイアスについて検討する。
一般的なディープニューラルネットワークに基づく2つの性別検出モデルを採用している。
バイアスモデルを検出する新しい手法であるInsideBiasを提案する。
論文 参考訳(メタデータ) (2020-04-14T15:20:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。