論文の概要: Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases
- arxiv url: http://arxiv.org/abs/2006.03955v5
- Date: Wed, 19 May 2021 15:06:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-24 20:57:18.753060
- Title: Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases
- Title(参考訳): 創発的節間ビアーゼの検出:ヒト様ビアーゼの分布を含む文脈的単語埋め込み
- Authors: Wei Guo and Aylin Caliskan
- Abstract要約: 最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
本稿では、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できる、コンテキスト適応型埋め込みアソシエーションテスト(CEAT)を紹介する。
静的な単語埋め込みから交差点バイアスと緊急交差点バイアスを自動的に識別する2つの方法,IBD (Intersectional Bias Detection) とEmergent Intersectional Bias Detection (EIBD) を開発した。
- 参考スコア(独自算出の注目度): 10.713568409205077
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: With the starting point that implicit human biases are reflected in the
statistical regularities of language, it is possible to measure biases in
English static word embeddings. State-of-the-art neural language models
generate dynamic word embeddings dependent on the context in which the word
appears. Current methods measure pre-defined social and intersectional biases
that appear in particular contexts defined by sentence templates. Dispensing
with templates, we introduce the Contextualized Embedding Association Test
(CEAT), that can summarize the magnitude of overall bias in neural language
models by incorporating a random-effects model. Experiments on social and
intersectional biases show that CEAT finds evidence of all tested biases and
provides comprehensive information on the variance of effect magnitudes of the
same bias in different contexts. All the models trained on English corpora that
we study contain biased representations.
Furthermore, we develop two methods, Intersectional Bias Detection (IBD) and
Emergent Intersectional Bias Detection (EIBD), to automatically identify the
intersectional biases and emergent intersectional biases from static word
embeddings in addition to measuring them in contextualized word embeddings. We
present the first algorithmic bias detection findings on how intersectional
group members are strongly associated with unique emergent biases that do not
overlap with the biases of their constituent minority identities. IBD and EIBD
achieve high accuracy when detecting the intersectional and emergent biases of
African American females and Mexican American females. Our results indicate
that biases at the intersection of race and gender associated with members of
multiple minority groups, such as African American females and Mexican American
females, have the highest magnitude across all neural language models.
- Abstract(参考訳): 単語の統計的規則性に暗黙の人間のバイアスが反映される点から、英語の静的単語埋め込みにおけるバイアスを測定することができる。
最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
現在の方法は、文テンプレートによって定義された特定の文脈に現れる、事前に定義された社会的および交叉バイアスを測定する。
テンプレートに代えて、ランダム・エフェクト・モデルを導入することで、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できるコンテキスト適応型埋め込みアソシエーションテスト(CEAT)を導入する。
社会的および交叉バイアスの実験は、CEATが全てのテストされたバイアスの証拠を見つけ、異なる文脈における同じバイアスの効果の大きさの分散に関する包括的な情報を提供することを示している。
私たちが研究する英語コーパスで訓練されたすべてのモデルは、偏りのある表現を含んでいる。
さらに、静的な単語埋め込みから交叉バイアスと創発的交叉バイアスを自動的に識別し、文脈化された単語埋め込みで測定する2つの方法、IBD(Intersectional Bias Detection)とEmergent Intersectional Bias Detection(EIBD)を開発した。
本研究は, 交差するグループメンバーが, マイノリティのバイアスと重複しない, 独特な創発的バイアスとどのように強く結びついているかについて, アルゴリズムによる最初のバイアス検出結果を示す。
IBDとEIBDは、アフリカ系アメリカ人とメキシコ系アメリカ人の交叉バイアスと緊急バイアスを検出する際に高い精度を達成する。
以上の結果から,アフリカ系アメリカ人女性やメキシコ系アメリカ人女性など,複数のマイノリティグループに属する人種と性別の交点におけるバイアスは,すべてのニューラルランゲージモデルにおいて最大級であることが示唆された。
関連論文リスト
- Spoken Stereoset: On Evaluating Social Bias Toward Speaker in Speech Large Language Models [50.40276881893513]
本研究では,音声大言語モデル(SLLM)における社会的バイアスの評価を目的としたデータセットであるSpken Stereosetを紹介する。
多様な人口集団の発話に対して異なるモデルがどのように反応するかを調べることで、これらのバイアスを特定することを目指している。
これらの結果から,ほとんどのモデルではバイアスが最小であるが,ステレオタイプや反ステレオタイプ傾向がわずかにみられた。
論文 参考訳(メタデータ) (2024-08-14T16:55:06Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Locating and Mitigating Gender Bias in Large Language Models [40.78150878350479]
大規模言語モデル(LLM)は、人間の好みを含む事実や人間の認知を学ぶために、広範囲なコーパスで事前訓練されている。
このプロセスは、社会においてバイアスや一般的なステレオタイプを取得するこれらのモデルに必然的に導かれる可能性がある。
本稿では,職業代名詞の性別バイアスを軽減する知識編集手法LSDMを提案する。
論文 参考訳(メタデータ) (2024-03-21T13:57:43Z) - Evaluating Biased Attitude Associations of Language Models in an
Intersectional Context [2.891314299138311]
言語モデルは、心理学で文書化された暗黙のバイアスを埋め込んだ大規模コーパスで訓練される。
我々は、年齢、教育、性別、身長、知性、識字性、人種、宗教、性、性的指向、社会階級、体重に関するバイアスを研究する。
言語モデルは、性同一性、社会的階級、性的指向のシグナルに対して最も偏りのある態度を示す。
論文 参考訳(メタデータ) (2023-07-07T03:01:56Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - An Analysis of Social Biases Present in BERT Variants Across Multiple
Languages [0.0]
多様な言語からなる単言語BERTモデルにおけるバイアスについて検討する。
文の擬似類似度に基づいて,任意のバイアスを測定するテンプレートベースの手法を提案する。
偏見探索の現在の手法は言語に依存していると結論付けている。
論文 参考訳(メタデータ) (2022-11-25T23:38:08Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z) - Joint Multiclass Debiasing of Word Embeddings [5.1135133995376085]
本稿では,複数のバイアス次元を同時に脱バイアスできる多クラス脱バイアス手法を提案する。
単語埋め込みにおけるベクトル間の有意義な関係を維持しながら、私たちの概念がバイアスを減らすか、あるいは完全に排除できることを示す。
論文 参考訳(メタデータ) (2020-03-09T22:06:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。