論文の概要: Evidence for Hypodescent in Visual Semantic AI
- arxiv url: http://arxiv.org/abs/2205.10764v1
- Date: Sun, 22 May 2022 06:46:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:17:07.949643
- Title: Evidence for Hypodescent in Visual Semantic AI
- Title(参考訳): 視覚的セマンティックAIにおける低感度の証拠
- Authors: Robert Wolfe, Mahzarin R. Banaji, Aylin Caliskan
- Abstract要約: 多人種の人々は、同等の多数派または有利な集団よりも、少数派または不利な人種または民族の集団に対応する人種または民族のラベルが割り当てられる傾向にある。
心理学的な研究に根ざした顔の変形実験は、思春期を示す。
画像のステレオタイプ・コングロレントな快適性関連は,CLIPのブラックテキストラベルと関連していることを示す。
- 参考スコア(独自算出の注目度): 4.1804353242318255
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We examine the state-of-the-art multimodal "visual semantic" model CLIP
("Contrastive Language Image Pretraining") for the rule of hypodescent, or
one-drop rule, whereby multiracial people are more likely to be assigned a
racial or ethnic label corresponding to a minority or disadvantaged racial or
ethnic group than to the equivalent majority or advantaged group. A face
morphing experiment grounded in psychological research demonstrating
hypodescent indicates that, at the midway point of 1,000 series of morphed
images, CLIP associates 69.7% of Black-White female images with a Black text
label over a White text label, and similarly prefers Latina (75.8%) and Asian
(89.1%) text labels at the midway point for Latina-White female and Asian-White
female morphs, reflecting hypodescent. Additionally, assessment of the
underlying cosine similarities in the model reveals that association with White
is correlated with association with "person," with Pearson's rho as high as
0.82 over a 21,000-image morph series, indicating that a White person
corresponds to the default representation of a person in CLIP. Finally, we show
that the stereotype-congruent pleasantness association of an image correlates
with association with the Black text label in CLIP, with Pearson's rho = 0.48
for 21,000 Black-White multiracial male images, and rho = 0.41 for Black-White
multiracial female images. CLIP is trained on English-language text gathered
using data collected from an American website (Wikipedia), and our findings
demonstrate that CLIP embeds the values of American racial hierarchy,
reflecting the implicit and explicit beliefs that are present in human minds.
We contextualize these findings within the history and psychology of
hypodescent. Overall, the data suggests that AI supervised using natural
language will, unless checked, learn biases that reflect racial hierarchies.
- Abstract(参考訳): 比較言語イメージ事前訓練(Contrastive Language Image Pretraining)モデルであるCLIP(Contrastive Language Image Pretraining)について,少数民族・少数民族・少数民族・少数民族・少数民族・少数民族・少数民族・少数民族・少数民族に比例した人種的・民族的ラベルが付与される傾向が示唆された。
仮説を実証する心理学的な研究に基礎を置いている顔のモルヒネ実験では、1000点のモルヒネ画像の中間点において、CLIPは69.7%のブラックホワイトの女性像をホワイトテキストラベルの上にブラックテキストラベルで関連付けており、同様にラティーナ(75.8%)とアジア(89.1%)のテキストラベルをラティーナ・ホワイトの女性像とアジアホワイトの女性像の中間点で好んでいる。
さらに、モデルにおけるコサインの類似性の評価は、白と「人物」との関連が、ピアソンのローは21,000イメージのモーフィックシリーズよりも0.82まで高いことを示し、白人はCLIPの人物のデフォルト表現に対応していることを示している。
最後に,画像のステレオタイプ・コングロレントな快適性関連は,CLIPのブラックテキストラベルと相関し,ピアソンのrho = 0.48,ブラックホワイトのrho = 0.41,ブラックホワイトの多人種女性画像と相関することを示した。
CLIPは、アメリカのWebサイト(Wikipedia)から収集されたデータを用いて、英語のテキストに基づいて訓練され、我々の研究結果は、CLIPがアメリカの人種階層の価値観を埋め込んで、人間の心に存在する暗黙的かつ明示的な信念を反映していることを示している。
我々はこれらの発見を、思春期の歴史と心理学の中で文脈化している。
全体としては、自然言語を教師するAIは、チェックしなければ人種的階層を反映したバイアスを学習するだろう。
関連論文リスト
- AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性がひげを生やし、茶色く肌を生やし、伝統的な服装を身に着けている、重要な人種的均質化を示している。
本稿では、画像を生成する際に、人種や性別の望ましい分布をユーザが指定できるようにデバイアス化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Studying Bias in GANs through the Lens of Race [91.95264864405493]
本研究では, 画像生成モデルの性能と評価が, 学習データセットの人種構成にどのように影響するかを検討する。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
論文 参考訳(メタデータ) (2022-09-06T22:25:56Z) - American == White in Multimodal Language-and-Image AI [3.4157048274143316]
最先端の3つのAIモデルを評価する。
白人は、アジア系、黒人系、ラテン系およびラテン系よりも集団内単語に関連があることが示される。
その結果、アメリカ人のアイデンティティと白人とを同一視するバイアスは、言語と画像のAIによって学習されることが示唆された。
論文 参考訳(メタデータ) (2022-07-01T23:45:56Z) - Markedness in Visual Semantic AI [3.4157048274143316]
年齢,性別,人種,民族のマーキングに関連するバイアスに対して,最先端のマルチモーダルな「視覚意味」モデルであるCLIPを評価した。
20歳未満の女性は、男性よりも性別ラベルでマークされる可能性が高いが、年齢ラベルでマークされる可能性は低い。
年齢が増加するにつれて、女性の表現の自己相似性が男性よりも高い速度で増加する。
論文 参考訳(メタデータ) (2022-05-23T15:14:41Z) - Regional Negative Bias in Word Embeddings Predicts Racial Animus--but
only via Name Frequency [2.247786323899963]
地理的にタグ付けされたソーシャルメディアデータからの反黒人WEAT推定は、人種的アニマスのいくつかの指標と強く相関していることを示す。
また,これらの相関関係は,ブラックネームとホワイトネームの相関関係において,ブラックネームの頻度によって説明されることを示した。
論文 参考訳(メタデータ) (2022-01-20T20:52:12Z) - Black or White but never neutral: How readers perceive identity from
yellow or skin-toned emoji [90.14874935843544]
近年の研究は、ソーシャルメディア上でのアイデンティティ表現と絵文字利用の関係を確立した。
この研究は、言語と同様に、読者がそのような自己表現の行為に敏感かどうかを問うもので、著者のアイデンティティを理解するために使用する。
論文 参考訳(メタデータ) (2021-05-12T18:23:51Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Unequal Representations: Analyzing Intersectional Biases in Word
Embeddings Using Representational Similarity Analysis [3.8580784887142774]
我々は、黒人女性に対する交叉バイアスの証拠として、文脈的および非文脈的埋め込みを探索する。
これらの埋め込みは黒人女性を白人女性よりも女性的にも少なく、黒人男性よりも黒人的にも少ないことを示す。
論文 参考訳(メタデータ) (2020-11-24T13:45:14Z) - It's Morphin' Time! Combating Linguistic Discrimination with
Inflectional Perturbations [68.16751625956243]
完全な標準英語コーパスのみが、非標準言語的背景から少数民族を区別するためにニューラルネットワークを前提としている。
我々は、単語の屈折形態を乱して、可塑性で意味論的に類似した逆の例を作る。
論文 参考訳(メタデータ) (2020-05-09T04:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。