論文の概要: Markedness in Visual Semantic AI
- arxiv url: http://arxiv.org/abs/2205.11378v1
- Date: Mon, 23 May 2022 15:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:18:02.857011
- Title: Markedness in Visual Semantic AI
- Title(参考訳): ビジュアルセマンティックAIにおけるマークネス
- Authors: Robert Wolfe, Aylin Caliskan
- Abstract要約: 年齢,性別,人種,民族のマーキングに関連するバイアスに対して,最先端のマルチモーダルな「視覚意味」モデルであるCLIPを評価した。
20歳未満の女性は、男性よりも性別ラベルでマークされる可能性が高いが、年齢ラベルでマークされる可能性は低い。
年齢が増加するにつれて、女性の表現の自己相似性が男性よりも高い速度で増加する。
- 参考スコア(独自算出の注目度): 3.4157048274143316
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We evaluate the state-of-the-art multimodal "visual semantic" model CLIP
("Contrastive Language Image Pretraining") for biases related to the marking of
age, gender, and race or ethnicity. Given the option to label an image as "a
photo of a person" or to select a label denoting race or ethnicity, CLIP
chooses the "person" label 47.9% of the time for White individuals, compared
with 5.0% or less for individuals who are Black, East Asian, Southeast Asian,
Indian, or Latino or Hispanic. The model is more likely to rank the unmarked
"person" label higher than labels denoting gender for Male individuals (26.7%
of the time) vs. Female individuals (15.2% of the time). Age affects whether an
individual is marked by the model: Female individuals under the age of 20 are
more likely than Male individuals to be marked with a gender label, but less
likely to be marked with an age label, while Female individuals over the age of
40 are more likely to be marked based on age than Male individuals. We also
examine the self-similarity (mean pairwise cosine similarity) for each social
group, where higher self-similarity denotes greater attention directed by CLIP
to the shared characteristics (age, race, or gender) of the social group. As
age increases, the self-similarity of representations of Female individuals
increases at a higher rate than for Male individuals, with the disparity most
pronounced at the "more than 70" age range. All ten of the most self-similar
social groups are individuals under the age of 10 or over the age of 70, and
six of the ten are Female individuals. Existing biases of self-similarity and
markedness between Male and Female gender groups are further exacerbated when
the groups compared are individuals who are White and Male and individuals who
are Black and Female. Results indicate that CLIP reflects the biases of the
language and society which produced its training data.
- Abstract(参考訳): CLIP(Contrastive Language Image Pretraining)は、年齢、性別、人種または民族のマーキングに関連するバイアスについて、最先端のマルチモーダルな「視覚意味」モデルの評価を行う。
画像に「人の写真」とラベル付けするか、人種または民族を示すラベルを選択するかの選択肢が与えられると、クリップは白人の「人物」ラベルを47.9%選択し、黒人、東アジア、東南アジア、インド、ラテン系、ヒスパニック系では5.5%以下である。
このモデルは、男性(26.7%)と女性(15.2%)の性別を示すラベルよりも、マークされていない「個人」ラベルを上位にランク付けする可能性が高い。
20歳未満の女性は男性よりも性別ラベルでマークされる可能性が高いが、年齢ラベルでマークされる可能性が低い一方、40歳以上の女性は男性よりも年齢に基づいてマークされる傾向にある。
また, 社会的集団における自己相似性(ペアワイズコサイン相似性)について検討し, より高い自己相似性は, 社会集団の共有特性(年齢, 人種, 性別)に対して, クリップによりより注目されることを示す。
年齢が増加するにつれて、女性の表現の自己相似性が男性よりも高くなり、「70歳以上」という年齢差が最も顕著になる。
最も独特な社会集団のうち10人は10歳以上、70歳以上の個人であり、10人のうち6人は女性である。
男女の性別グループ間の自己相似性や特徴性に関する既存のバイアスは、比較群が白人、男性、黒人、女性である場合にさらに悪化する。
結果から,CLIPは学習データを生成する言語や社会のバイアスを反映していることがわかった。
関連論文リスト
- AI-generated faces free from racial and gender stereotypes [1.8709793925421858]
我々は、任意の顔画像の人種、性別、年齢を予測できる分類器を開発する。
6つの人種、2つの性別、5つの年齢グループ、32の専門職、8つの属性にまたがる安定拡散のバイアスを定量化する。
我々は、最先端の代替品より優れた新しい脱バイアスソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - The Gender Gap in Face Recognition Accuracy Is a Hairy Problem [8.768049933358968]
まず、男女の髪型が顔の認識精度に影響を及ぼす重要な違いがあることを実証する。
そして、認識精度を推定するために使用されるデータが、髪型が顔を妨げるかによって性別間でバランスが取れている場合、当初観察された精度の男女差が大きく消失することを示した。
論文 参考訳(メタデータ) (2022-06-10T04:32:47Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Quantifying the Extent to Which Race and Gender Features Determine
Identity in Commercial Face Recognition Algorithms [0.0]
ブラックボックスの商用顔認識アルゴリズム(CFRA)は、性別と人種の特徴を使って識別する。
本研究は、性別と人種の特徴が、異なる人物間の顔認識類似度スコアに与える影響を定量化した。
論文 参考訳(メタデータ) (2020-10-15T18:52:36Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。