論文の概要: Unequal Representations: Analyzing Intersectional Biases in Word
Embeddings Using Representational Similarity Analysis
- arxiv url: http://arxiv.org/abs/2011.12086v1
- Date: Tue, 24 Nov 2020 13:45:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:11:32.599879
- Title: Unequal Representations: Analyzing Intersectional Biases in Word
Embeddings Using Representational Similarity Analysis
- Title(参考訳): 不等表現:表現類似性分析を用いた単語埋め込みにおける交叉バイアスの解析
- Authors: Michael A. Lepori
- Abstract要約: 我々は、黒人女性に対する交叉バイアスの証拠として、文脈的および非文脈的埋め込みを探索する。
これらの埋め込みは黒人女性を白人女性よりも女性的にも少なく、黒人男性よりも黒人的にも少ないことを示す。
- 参考スコア(独自算出の注目度): 3.8580784887142774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new approach for detecting human-like social biases in word
embeddings using representational similarity analysis. Specifically, we probe
contextualized and non-contextualized embeddings for evidence of intersectional
biases against Black women. We show that these embeddings represent Black women
as simultaneously less feminine than White women, and less Black than Black
men. This finding aligns with intersectionality theory, which argues that
multiple identity categories (such as race or sex) layer on top of each other
in order to create unique modes of discrimination that are not shared by any
individual category.
- Abstract(参考訳): 本稿では,表現的類似性分析を用いた単語埋め込みにおける人間的社会的バイアスの検出手法を提案する。
具体的には、黒人女性に対する交叉バイアスの証拠として、文脈的および非文脈的埋め込みを調査した。
これらの埋め込みは黒人女性を白人女性よりも女性的にも少なく、黒人男性よりも黒人的にも少ないことを示す。
この発見は交叉性理論(英語版)と一致し、複数のアイデンティティ圏(人種や性など)が互いに重なり合っており、任意の個別のカテゴリーで共有されていない独自の識別モードを作成する。
関連論文リスト
- GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Debiasing Word Embeddings with Nonlinear Geometry [37.88933175338274]
この研究は、複数の社会的カテゴリーに関連するバイアスを研究する。
個々のバイアスは1次元の部分空間上で非自明に交わる。
次に、個人バイアスの非線形幾何学を用いて、複数の社会的カテゴリに対するデバイアスに対する交叉部分空間を構築する。
論文 参考訳(メタデータ) (2022-08-29T21:40:27Z) - Evidence for Hypodescent in Visual Semantic AI [4.1804353242318255]
多人種の人々は、同等の多数派または有利な集団よりも、少数派または不利な人種または民族の集団に対応する人種または民族のラベルが割り当てられる傾向にある。
心理学的な研究に根ざした顔の変形実験は、思春期を示す。
画像のステレオタイプ・コングロレントな快適性関連は,CLIPのブラックテキストラベルと関連していることを示す。
論文 参考訳(メタデータ) (2022-05-22T06:46:39Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - WordBias: An Interactive Visual Tool for Discovering Intersectional
Biases Encoded in Word Embeddings [39.87681037622605]
本稿では,単語埋め込みに符号化された交叉群に対するバイアスを探索するインタラクティブビジュアルツールであるWordBiasを紹介する。
事前訓練された静的単語の埋め込みが与えられた場合、WordBiasは、人種、年齢などに基づいて、各単語の関連性を計算する。
論文 参考訳(メタデータ) (2021-03-05T11:04:35Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases [10.713568409205077]
最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
本稿では、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できる、コンテキスト適応型埋め込みアソシエーションテスト(CEAT)を紹介する。
静的な単語埋め込みから交差点バイアスと緊急交差点バイアスを自動的に識別する2つの方法,IBD (Intersectional Bias Detection) とEmergent Intersectional Bias Detection (EIBD) を開発した。
論文 参考訳(メタデータ) (2020-06-06T19:49:50Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。