論文の概要: Debiasing Word Embeddings with Nonlinear Geometry
- arxiv url: http://arxiv.org/abs/2208.13899v1
- Date: Mon, 29 Aug 2022 21:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:25:53.154668
- Title: Debiasing Word Embeddings with Nonlinear Geometry
- Title(参考訳): 非線形幾何による単語埋め込みのデバイアス
- Authors: Lu Cheng, Nayoung Kim, Huan Liu
- Abstract要約: この研究は、複数の社会的カテゴリーに関連するバイアスを研究する。
個々のバイアスは1次元の部分空間上で非自明に交わる。
次に、個人バイアスの非線形幾何学を用いて、複数の社会的カテゴリに対するデバイアスに対する交叉部分空間を構築する。
- 参考スコア(独自算出の注目度): 37.88933175338274
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Debiasing word embeddings has been largely limited to individual and
independent social categories. However, real-world corpora typically present
multiple social categories that possibly correlate or intersect with each
other. For instance, "hair weaves" is stereotypically associated with African
American females, but neither African American nor females alone. Therefore,
this work studies biases associated with multiple social categories: joint
biases induced by the union of different categories and intersectional biases
that do not overlap with the biases of the constituent categories. We first
empirically observe that individual biases intersect non-trivially (i.e., over
a one-dimensional subspace). Drawing from the intersectional theory in social
science and the linguistic theory, we then construct an intersectional subspace
to debias for multiple social categories using the nonlinear geometry of
individual biases. Empirical evaluations corroborate the efficacy of our
approach. Data and implementation code can be downloaded at
https://github.com/GitHubLuCheng/Implementation-of-JoSEC-COLING-22.
- Abstract(参考訳): 単語の埋め込みのバイアスは、主に個人と独立した社会カテゴリーに限られている。
しかし、現実世界のコーパスは通常、相互に関連づけられたり交差する可能性のある複数の社会的カテゴリを示す。
例えば、「ヘアウィーブ」はアフリカ系アメリカ人女性とステレオタイプで関連があるが、アフリカ系アメリカ人でも女性でもない。
そこで本研究は, 異なるカテゴリーの結合によって引き起こされる共役バイアスと, 構成カテゴリーのバイアスと重複しない交叉バイアスという, 複数の社会圏に関連するバイアスについて研究する。
まず、個々のバイアスが非自明に交わる(つまり、1次元の部分空間上)ことを経験的に観察する。
社会科学における交叉理論と言語理論から、個々のバイアスの非線形幾何学を用いて、複数の社会圏のデビアスへの交叉部分空間を構築する。
経験的評価は我々のアプローチの有効性を裏付ける。
データと実装コードはhttps://github.com/GitHubLuCheng/Implementation-of-JoSEC-COING-22でダウンロードできる。
関連論文リスト
- Social-Group-Agnostic Word Embedding Debiasing via the Stereotype
Content Model [3.0869883531083233]
既存の単語埋め込みのデバイアス法では、社会的属性ごとにグループ固有の単語ペアが必要である。
本稿では、ステレオタイプコンテンツモデル(SCM)が、社会的グループ非依存化への取り組みを嫌悪するのに役立つことを提案する。
論文 参考訳(メタデータ) (2022-10-11T23:26:23Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - WordBias: An Interactive Visual Tool for Discovering Intersectional
Biases Encoded in Word Embeddings [39.87681037622605]
本稿では,単語埋め込みに符号化された交叉群に対するバイアスを探索するインタラクティブビジュアルツールであるWordBiasを紹介する。
事前訓練された静的単語の埋め込みが与えられた場合、WordBiasは、人種、年齢などに基づいて、各単語の関連性を計算する。
論文 参考訳(メタデータ) (2021-03-05T11:04:35Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Unequal Representations: Analyzing Intersectional Biases in Word
Embeddings Using Representational Similarity Analysis [3.8580784887142774]
我々は、黒人女性に対する交叉バイアスの証拠として、文脈的および非文脈的埋め込みを探索する。
これらの埋め込みは黒人女性を白人女性よりも女性的にも少なく、黒人男性よりも黒人的にも少ないことを示す。
論文 参考訳(メタデータ) (2020-11-24T13:45:14Z) - Exploring the Linear Subspace Hypothesis in Gender Bias Mitigation [57.292988892028134]
Bolukbasi et al. は、単語表現のための最初の性別バイアス緩和手法の1つである。
我々はそれらの手法を、カーネル化された非線形バージョンに一般化する。
我々は、バイアス部分空間が実際に線型であるかどうかを経験的に分析する。
論文 参考訳(メタデータ) (2020-09-20T14:13:45Z) - Discovering and Categorising Language Biases in Reddit [5.670038395203354]
本稿では,Reddit上のオンライン談話コミュニティの語彙に符号化された言語バイアスを自動的に検出するデータ駆動型手法を提案する。
単語埋め込みを用いて、テキストを高次元の高密度ベクトルに変換し、単語間の意味的関係をキャプチャする。
さまざまなRedditコミュニティにおいて、ジェンダーバイアス、宗教バイアス、民族バイアスの発見に成功しました。
論文 参考訳(メタデータ) (2020-08-06T16:42:10Z) - Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases [10.713568409205077]
最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
本稿では、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できる、コンテキスト適応型埋め込みアソシエーションテスト(CEAT)を紹介する。
静的な単語埋め込みから交差点バイアスと緊急交差点バイアスを自動的に識別する2つの方法,IBD (Intersectional Bias Detection) とEmergent Intersectional Bias Detection (EIBD) を開発した。
論文 参考訳(メタデータ) (2020-06-06T19:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。