論文の概要: Markedness in Visual Semantic AI
- arxiv url: http://arxiv.org/abs/2205.11378v1
- Date: Mon, 23 May 2022 15:14:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:18:02.857011
- Title: Markedness in Visual Semantic AI
- Title(参考訳): ビジュアルセマンティックAIにおけるマークネス
- Authors: Robert Wolfe, Aylin Caliskan
- Abstract要約: 年齢,性別,人種,民族のマーキングに関連するバイアスに対して,最先端のマルチモーダルな「視覚意味」モデルであるCLIPを評価した。
20歳未満の女性は、男性よりも性別ラベルでマークされる可能性が高いが、年齢ラベルでマークされる可能性は低い。
年齢が増加するにつれて、女性の表現の自己相似性が男性よりも高い速度で増加する。
- 参考スコア(独自算出の注目度): 3.4157048274143316
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We evaluate the state-of-the-art multimodal "visual semantic" model CLIP
("Contrastive Language Image Pretraining") for biases related to the marking of
age, gender, and race or ethnicity. Given the option to label an image as "a
photo of a person" or to select a label denoting race or ethnicity, CLIP
chooses the "person" label 47.9% of the time for White individuals, compared
with 5.0% or less for individuals who are Black, East Asian, Southeast Asian,
Indian, or Latino or Hispanic. The model is more likely to rank the unmarked
"person" label higher than labels denoting gender for Male individuals (26.7%
of the time) vs. Female individuals (15.2% of the time). Age affects whether an
individual is marked by the model: Female individuals under the age of 20 are
more likely than Male individuals to be marked with a gender label, but less
likely to be marked with an age label, while Female individuals over the age of
40 are more likely to be marked based on age than Male individuals. We also
examine the self-similarity (mean pairwise cosine similarity) for each social
group, where higher self-similarity denotes greater attention directed by CLIP
to the shared characteristics (age, race, or gender) of the social group. As
age increases, the self-similarity of representations of Female individuals
increases at a higher rate than for Male individuals, with the disparity most
pronounced at the "more than 70" age range. All ten of the most self-similar
social groups are individuals under the age of 10 or over the age of 70, and
six of the ten are Female individuals. Existing biases of self-similarity and
markedness between Male and Female gender groups are further exacerbated when
the groups compared are individuals who are White and Male and individuals who
are Black and Female. Results indicate that CLIP reflects the biases of the
language and society which produced its training data.
- Abstract(参考訳): CLIP(Contrastive Language Image Pretraining)は、年齢、性別、人種または民族のマーキングに関連するバイアスについて、最先端のマルチモーダルな「視覚意味」モデルの評価を行う。
画像に「人の写真」とラベル付けするか、人種または民族を示すラベルを選択するかの選択肢が与えられると、クリップは白人の「人物」ラベルを47.9%選択し、黒人、東アジア、東南アジア、インド、ラテン系、ヒスパニック系では5.5%以下である。
このモデルは、男性(26.7%)と女性(15.2%)の性別を示すラベルよりも、マークされていない「個人」ラベルを上位にランク付けする可能性が高い。
20歳未満の女性は男性よりも性別ラベルでマークされる可能性が高いが、年齢ラベルでマークされる可能性が低い一方、40歳以上の女性は男性よりも年齢に基づいてマークされる傾向にある。
また, 社会的集団における自己相似性(ペアワイズコサイン相似性)について検討し, より高い自己相似性は, 社会集団の共有特性(年齢, 人種, 性別)に対して, クリップによりより注目されることを示す。
年齢が増加するにつれて、女性の表現の自己相似性が男性よりも高くなり、「70歳以上」という年齢差が最も顕著になる。
最も独特な社会集団のうち10人は10歳以上、70歳以上の個人であり、10人のうち6人は女性である。
男女の性別グループ間の自己相似性や特徴性に関する既存のバイアスは、比較群が白人、男性、黒人、女性である場合にさらに悪化する。
結果から,CLIPは学習データを生成する言語や社会のバイアスを反映していることがわかった。
関連論文リスト
- GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性がひげを生やし、茶色く肌を生やし、伝統的な服装を身に着けている、重要な人種的均質化を示している。
本稿では、画像を生成する際に、人種や性別の望ましい分布をユーザが指定できるようにデバイアス化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - Large Language Models Portray Socially Subordinate Groups as More Homogeneous, Consistent with a Bias Observed in Humans [0.30723404270319693]
大規模言語モデル(LLM)における新しい形式のバイアスについて検討する。
チャットGPTはアフリカ系アメリカ人、アジア系アメリカ人、ヒスパニック系アメリカ人を白人よりも同質であると表現した。
グループを多様性の低いリスクとして表現する傾向は、ステレオタイプや差別行動に永続する傾向があると論じる。
論文 参考訳(メタデータ) (2024-01-16T16:52:00Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - Quantifying the Extent to Which Race and Gender Features Determine
Identity in Commercial Face Recognition Algorithms [0.0]
ブラックボックスの商用顔認識アルゴリズム(CFRA)は、性別と人種の特徴を使って識別する。
本研究は、性別と人種の特徴が、異なる人物間の顔認識類似度スコアに与える影響を定量化した。
論文 参考訳(メタデータ) (2020-10-15T18:52:36Z) - Understanding Fairness of Gender Classification Algorithms Across
Gender-Race Groups [0.8594140167290097]
本研究の目的は,性別・人種間の性別分類アルゴリズムの差分性能について検討することである。
すべてのアルゴリズムにおいて、黒人女性(一般には黒人人種)は最小の精度で常に取得した。
中東の男性とラテン系の女性は、ほとんどの場合より高い精度で取得した。
論文 参考訳(メタデータ) (2020-09-24T04:56:10Z) - Enhancing Facial Data Diversity with Style-based Face Aging [59.984134070735934]
特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。
本稿では, 細粒度の老化パターンをキャプチャするデータ拡張のための, 生成スタイルに基づく新しいアーキテクチャを提案する。
提案手法は, 年齢移動のための最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-06T21:53:44Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。