論文の概要: Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases
- arxiv url: http://arxiv.org/abs/2006.03955v5
- Date: Wed, 19 May 2021 15:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 20:57:18.753060
- Title: Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases
- Title(参考訳): 創発的節間ビアーゼの検出:ヒト様ビアーゼの分布を含む文脈的単語埋め込み
- Authors: Wei Guo and Aylin Caliskan
- Abstract要約: 最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
本稿では、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できる、コンテキスト適応型埋め込みアソシエーションテスト(CEAT)を紹介する。
静的な単語埋め込みから交差点バイアスと緊急交差点バイアスを自動的に識別する2つの方法,IBD (Intersectional Bias Detection) とEmergent Intersectional Bias Detection (EIBD) を開発した。
- 参考スコア(独自算出の注目度): 10.713568409205077
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the starting point that implicit human biases are reflected in the
statistical regularities of language, it is possible to measure biases in
English static word embeddings. State-of-the-art neural language models
generate dynamic word embeddings dependent on the context in which the word
appears. Current methods measure pre-defined social and intersectional biases
that appear in particular contexts defined by sentence templates. Dispensing
with templates, we introduce the Contextualized Embedding Association Test
(CEAT), that can summarize the magnitude of overall bias in neural language
models by incorporating a random-effects model. Experiments on social and
intersectional biases show that CEAT finds evidence of all tested biases and
provides comprehensive information on the variance of effect magnitudes of the
same bias in different contexts. All the models trained on English corpora that
we study contain biased representations.
Furthermore, we develop two methods, Intersectional Bias Detection (IBD) and
Emergent Intersectional Bias Detection (EIBD), to automatically identify the
intersectional biases and emergent intersectional biases from static word
embeddings in addition to measuring them in contextualized word embeddings. We
present the first algorithmic bias detection findings on how intersectional
group members are strongly associated with unique emergent biases that do not
overlap with the biases of their constituent minority identities. IBD and EIBD
achieve high accuracy when detecting the intersectional and emergent biases of
African American females and Mexican American females. Our results indicate
that biases at the intersection of race and gender associated with members of
multiple minority groups, such as African American females and Mexican American
females, have the highest magnitude across all neural language models.
- Abstract(参考訳): 単語の統計的規則性に暗黙の人間のバイアスが反映される点から、英語の静的単語埋め込みにおけるバイアスを測定することができる。
最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
現在の方法は、文テンプレートによって定義された特定の文脈に現れる、事前に定義された社会的および交叉バイアスを測定する。
テンプレートに代えて、ランダム・エフェクト・モデルを導入することで、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できるコンテキスト適応型埋め込みアソシエーションテスト(CEAT)を導入する。
社会的および交叉バイアスの実験は、CEATが全てのテストされたバイアスの証拠を見つけ、異なる文脈における同じバイアスの効果の大きさの分散に関する包括的な情報を提供することを示している。
私たちが研究する英語コーパスで訓練されたすべてのモデルは、偏りのある表現を含んでいる。
さらに、静的な単語埋め込みから交叉バイアスと創発的交叉バイアスを自動的に識別し、文脈化された単語埋め込みで測定する2つの方法、IBD(Intersectional Bias Detection)とEmergent Intersectional Bias Detection(EIBD)を開発した。
本研究は, 交差するグループメンバーが, マイノリティのバイアスと重複しない, 独特な創発的バイアスとどのように強く結びついているかについて, アルゴリズムによる最初のバイアス検出結果を示す。
IBDとEIBDは、アフリカ系アメリカ人とメキシコ系アメリカ人の交叉バイアスと緊急バイアスを検出する際に高い精度を達成する。
以上の結果から,アフリカ系アメリカ人女性やメキシコ系アメリカ人女性など,複数のマイノリティグループに属する人種と性別の交点におけるバイアスは,すべてのニューラルランゲージモデルにおいて最大級であることが示唆された。
関連論文リスト
- Social Bias Probing: Fairness Benchmarking for Language Models [48.5644008956526]
本稿では,社会的バイアスに対する言語モデル探索のための独自のフレームワークを提案する。
我々は,言語モデルの一般関連を分析するための探索データセットを収集し,社会的カテゴリ,アイデンティティ,ステレオタイプなどの軸に沿って収集する。
論文 参考訳(メタデータ) (2023-11-15T16:35:59Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Evaluating Biased Attitude Associations of Language Models in an
Intersectional Context [2.891314299138311]
言語モデルは、心理学で文書化された暗黙のバイアスを埋め込んだ大規模コーパスで訓練される。
我々は、年齢、教育、性別、身長、知性、識字性、人種、宗教、性、性的指向、社会階級、体重に関するバイアスを研究する。
言語モデルは、性同一性、社会的階級、性的指向のシグナルに対して最も偏りのある態度を示す。
論文 参考訳(メタデータ) (2023-07-07T03:01:56Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - An Analysis of Social Biases Present in BERT Variants Across Multiple
Languages [0.0]
多様な言語からなる単言語BERTモデルにおけるバイアスについて検討する。
文の擬似類似度に基づいて,任意のバイアスを測定するテンプレートベースの手法を提案する。
偏見探索の現在の手法は言語に依存していると結論付けている。
論文 参考訳(メタデータ) (2022-11-25T23:38:08Z) - Bias at a Second Glance: A Deep Dive into Bias for German Educational
Peer-Review Data Modeling [10.080007569933331]
我々は5年間で9,165人のドイツのピアレビューのコーパスで、テキストと複数のアーキテクチャ間のバイアスを分析します。
収集したコーパスは, 共起解析やGloVe埋め込みにおいて多くのバイアスを示さない。
事前訓練されたドイツの言語モデルは、実質的な概念的、人種的、性別的偏見を見出す。
論文 参考訳(メタデータ) (2022-09-21T13:08:16Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z) - Joint Multiclass Debiasing of Word Embeddings [5.1135133995376085]
本稿では,複数のバイアス次元を同時に脱バイアスできる多クラス脱バイアス手法を提案する。
単語埋め込みにおけるベクトル間の有意義な関係を維持しながら、私たちの概念がバイアスを減らすか、あるいは完全に排除できることを示す。
論文 参考訳(メタデータ) (2020-03-09T22:06:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。