論文の概要: American == White in Multimodal Language-and-Image AI
- arxiv url: http://arxiv.org/abs/2207.00691v1
- Date: Fri, 1 Jul 2022 23:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 12:05:54.924746
- Title: American == White in Multimodal Language-and-Image AI
- Title(参考訳): マルチモーダル言語と画像AIにおける American == White
- Authors: Robert Wolfe and Aylin Caliskan
- Abstract要約: 最先端の3つのAIモデルを評価する。
白人は、アジア系、黒人系、ラテン系およびラテン系よりも集団内単語に関連があることが示される。
その結果、アメリカ人のアイデンティティと白人とを同一視するバイアスは、言語と画像のAIによって学習されることが示唆された。
- 参考スコア(独自算出の注目度): 3.4157048274143316
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Three state-of-the-art language-and-image AI models, CLIP, SLIP, and BLIP,
are evaluated for evidence of a bias previously observed in social and
experimental psychology: equating American identity with being White. Embedding
association tests (EATs) using standardized images of self-identified Asian,
Black, Latina/o, and White individuals from the Chicago Face Database (CFD)
reveal that White individuals are more associated with collective in-group
words than are Asian, Black, or Latina/o individuals. In assessments of three
core aspects of American identity reported by social psychologists,
single-category EATs reveal that images of White individuals are more
associated with patriotism and with being born in America, but that, consistent
with prior findings in psychology, White individuals are associated with being
less likely to treat people of all races and backgrounds equally. Three
downstream machine learning tasks demonstrate biases associating American with
White. In a visual question answering task using BLIP, 97% of White individuals
are identified as American, compared to only 3% of Asian individuals. When
asked in what state the individual depicted lives in, the model responds China
53% of the time for Asian individuals, but always with an American state for
White individuals. In an image captioning task, BLIP remarks upon the race of
Asian individuals as much as 36% of the time, but never remarks upon race for
White individuals. Finally, provided with an initialization image from the CFD
and the text "an American person," a synthetic image generator (VQGAN) using
the text-based guidance of CLIP lightens the skin tone of individuals of all
races (by 35% for Black individuals, based on pixel brightness). The results
indicate that biases equating American identity with being White are learned by
language-and-image AI, and propagate to downstream applications of such models.
- Abstract(参考訳): CLIP、SLIP、BLIPという最先端の3つのAIモデルが、社会心理学や実験心理学でこれまで観察された偏見の証拠として評価されている。
シカゴ・フェイス・データベース (cfd) の自己同定されたアジア人、黒人、ラテン系、白人のイメージを用いた埋め込み関連テスト (eats) により、白人はアジア系、黒人、ラテン系、またはラテン系よりも集団内の言葉とより関連があることが明らかとなった。
社会心理学者によって報告されたアメリカのアイデンティティの3つの中核的な側面の評価において、単一カテゴリーの食事は、白人のイメージが愛国心やアメリカ生まれとより関連していることを明らかにするが、心理学の以前の発見と一致して、白人の個人は全ての人種や背景の人々を平等に扱う可能性が低いことと関連している。
3つの下流機械学習タスクは、アメリカ人と白人を関連付けるバイアスを示す。
blipを用いた視覚的質問応答タスクでは、白人の97%がアメリカ人であることが判明した。
個人がどの州に住んでいるかを問うと、モデルはアジアの人の53%の時間に中国に反応するが、常に白人の州に反応する。
BLIPは画像キャプションタスクにおいて、アジア人の人種について最大36%の時間で言及するが、白人の人種について言及することはない。
最後に、CFDと合成画像生成装置(VQGAN)からの初期化画像が提供され、CLIPのテキストベースのガイダンスが全人種の皮膚のトーンを明るくする(黒人の35%はピクセルの明るさに基づいている)。
結果は、アメリカのアイデンティティとホワイトを同一視するバイアスは、言語と画像のAIによって学習され、そのようなモデルの下流の応用に伝播していることを示している。
関連論文リスト
- AI-generated faces influence gender stereotypes and racial homogenization [1.6647208383676708]
6つの人種、2つの性別、32の専門職、8つの属性にまたがる安定拡散の重大なバイアスを文書化しています。
この分析は、ほぼすべての中東の男性がひげを生やし、茶色く肌を生やし、伝統的な服装を身に着けている、重要な人種的均質化を示している。
本稿では、画像を生成する際に、人種や性別の望ましい分布をユーザが指定できるようにデバイアス化ソリューションを提案する。
論文 参考訳(メタデータ) (2024-02-01T20:32:14Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - Do All Asians Look the Same?: A Comparative Analysis of the East Asian
Facial Color Desires using Instagram [7.927093463287226]
本研究では、自撮りデータを用いて、理想的な表情に対する人々の欲求が地域によってどのように変化するかを調べる。
我々は、「全てのアジア人は同一の視覚を好む」と反論し、これは「全てのアジア人は同じに見える」という西洋の俗説のサブセットである。
本稿では、現実世界の欲望と西洋の美容市場の見解のミスマッチを解決するための戦略を提案する。
論文 参考訳(メタデータ) (2023-04-06T15:05:56Z) - Studying Bias in GANs through the Lens of Race [91.95264864405493]
本研究では, 画像生成モデルの性能と評価が, 学習データセットの人種構成にどのように影響するかを検討する。
その結果, 生成した画像の人種構成は, トレーニングデータの保存に成功していることがわかった。
しかし、推論中に高品質な画像を生成する手法であるトランケーションは、データの人種的不均衡を悪化させる。
論文 参考訳(メタデータ) (2022-09-06T22:25:56Z) - Markedness in Visual Semantic AI [3.4157048274143316]
年齢,性別,人種,民族のマーキングに関連するバイアスに対して,最先端のマルチモーダルな「視覚意味」モデルであるCLIPを評価した。
20歳未満の女性は、男性よりも性別ラベルでマークされる可能性が高いが、年齢ラベルでマークされる可能性は低い。
年齢が増加するにつれて、女性の表現の自己相似性が男性よりも高い速度で増加する。
論文 参考訳(メタデータ) (2022-05-23T15:14:41Z) - Evidence for Hypodescent in Visual Semantic AI [4.1804353242318255]
多人種の人々は、同等の多数派または有利な集団よりも、少数派または不利な人種または民族の集団に対応する人種または民族のラベルが割り当てられる傾向にある。
心理学的な研究に根ざした顔の変形実験は、思春期を示す。
画像のステレオタイプ・コングロレントな快適性関連は,CLIPのブラックテキストラベルと関連していることを示す。
論文 参考訳(メタデータ) (2022-05-22T06:46:39Z) - Annotators with Attitudes: How Annotator Beliefs And Identities Bias
Toxic Language Detection [75.54119209776894]
本研究では,アノテータのアイデンティティ(誰)と信念(なぜ)が有害な言語アノテーションに与える影響について検討する。
我々は、アンチブラック言語、アフリカ系アメリカ人の英語方言、俗語という3つの特徴を持つポストを考察する。
以上の結果から,アノテータのアイデンティティと信念と毒性評価の相関が強く示唆された。
論文 参考訳(メタデータ) (2021-11-15T18:58:20Z) - Black or White but never neutral: How readers perceive identity from
yellow or skin-toned emoji [90.14874935843544]
近年の研究は、ソーシャルメディア上でのアイデンティティ表現と絵文字利用の関係を確立した。
この研究は、言語と同様に、読者がそのような自己表現の行為に敏感かどうかを問うもので、著者のアイデンティティを理解するために使用する。
論文 参考訳(メタデータ) (2021-05-12T18:23:51Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Country Image in COVID-19 Pandemic: A Case Study of China [79.17323278601869]
国像は国際関係と経済発展に大きな影響を与えている。
新型コロナウイルス(COVID-19)の世界的な流行で、各国と国民は異なる反応を見せている。
本研究では,中国を具体的かつ典型的な事例として捉え,大規模Twitterデータセットのアスペクトベース感情分析を用いてそのイメージを考察する。
論文 参考訳(メタデータ) (2020-09-12T15:54:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。