論文の概要: Nurse is Closer to Woman than Surgeon? Mitigating Gender-Biased
Proximities in Word Embeddings
- arxiv url: http://arxiv.org/abs/2006.01938v1
- Date: Tue, 2 Jun 2020 20:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 23:28:07.298116
- Title: Nurse is Closer to Woman than Surgeon? Mitigating Gender-Biased
Proximities in Word Embeddings
- Title(参考訳): 看護師は外科医より女性に近い?
単語埋め込みにおける性偏差の軽減
- Authors: Vaibhav Kumar, Tenzin Singhay Bhotia, Vaibhav Kumar, Tanmoy
Chakraborty
- Abstract要約: 単語ベクターの空間配置に隠された性別バイアスを緩和することは,既存の単語埋め込みの処理方法では不可能である。
我々は,単語ベクトルに存在するバイアスを排除し,隣接するベクトルの空間分布を変化させる,新しいジェンダーデバイアス手法であるRAN-Debiasを提案する。
我々はまた、新しいバイアス評価指標、ジェンダーベースIllicit Proximity Estimate (GIPE)を提案する。
- 参考スコア(独自算出の注目度): 37.65897382453336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Word embeddings are the standard model for semantic and syntactic
representations of words. Unfortunately, these models have been shown to
exhibit undesirable word associations resulting from gender, racial, and
religious biases. Existing post-processing methods for debiasing word
embeddings are unable to mitigate gender bias hidden in the spatial arrangement
of word vectors. In this paper, we propose RAN-Debias, a novel gender debiasing
methodology which not only eliminates the bias present in a word vector but
also alters the spatial distribution of its neighbouring vectors, achieving a
bias-free setting while maintaining minimal semantic offset. We also propose a
new bias evaluation metric - Gender-based Illicit Proximity Estimate (GIPE),
which measures the extent of undue proximity in word vectors resulting from the
presence of gender-based predilections. Experiments based on a suite of
evaluation metrics show that RAN-Debias significantly outperforms the
state-of-the-art in reducing proximity bias (GIPE) by at least 42.02%. It also
reduces direct bias, adding minimal semantic disturbance, and achieves the best
performance in a downstream application task (coreference resolution).
- Abstract(参考訳): 単語埋め込みは、単語の意味表現と構文表現の標準モデルである。
残念ながら、これらのモデルは、性別、人種、宗教的偏見から生じる好ましくない言葉の関連を示すことが示されている。
単語ベクターの空間配置に隠された性別バイアスを緩和することは,既存の単語埋め込みの処理方法では不可能である。
本稿では,単語ベクトルに存在するバイアスを取り除くだけでなく,隣接ベクトルの空間分布を変化させ,最小の意味的オフセットを維持しながらバイアスフリーな設定を実現する,新しいジェンダーデバイアス手法であるran-debiasを提案する。
また, 単語ベクトルにおける不適切な近さの程度を, 性別に基づく前置詞の有無から測定する, 新たなバイアス評価指標, ジェンダーベース不正近接推定(gipe)を提案する。
一連の評価指標に基づく実験により、RAN-Debiasは、近接バイアス(GIPE)を少なくとも42.02%減少させる最先端の成績を著しく上回ることが示された。
また、直接的なバイアスを低減し、最小限の意味障害を追加し、ダウンストリームアプリケーションタスク(スコア解決)で最高のパフォーマンスを達成する。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - MABEL: Attenuating Gender Bias using Textual Entailment Data [20.489427903240017]
我々は、文脈化表現における性別バイアスを軽減するための中間的事前学習手法であるMABELを提案する。
このアプローチの鍵となるのは、非現実的に強化されたジェンダーバランスのエンターメントペアに対して、対照的な学習目標を使用することである。
我々はMABELが従来のタスク非依存のデバイアスアプローチよりも公平性で優れていることを示す。
論文 参考訳(メタデータ) (2022-10-26T18:36:58Z) - Identifying and Mitigating Gender Bias in Hyperbolic Word Embeddings [34.378806636170616]
ジェンダーバイアスの研究を、最近普及したハイパーボリック単語の埋め込みに拡張する。
本稿では,双曲型単語表現におけるジェンダーバイアスを定量化するための新しい尺度であるジロコシンバイアスを提案する。
評価試験の結果、Poincar'e Gender Debias (PGD) は最小のセマンティックオフセットを追加しながらバイアスを効果的に低減することが示された。
論文 参考訳(メタデータ) (2021-09-28T14:43:37Z) - The Gap on GAP: Tackling the Problem of Differing Data Distributions in
Bias-Measuring Datasets [58.53269361115974]
バイアスモデルを検出する診断データセットは、自然言語処理におけるバイアス低減の重要な前提条件である。
収集されたデータの望ましくないパターンは、そのようなテストを誤ったものにします。
実験データにおけるそのようなパターンに対処するために, 実験サンプルを重み付けする理論的基礎的手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T16:50:13Z) - Investigating Gender Bias in BERT [22.066477991442003]
我々は、感情や感情の強さの予測に関連する5つの下流タスクにおいて、それが引き起こすジェンダーバイアスを分析した。
本稿では,各BERT層に対する1つの主方向という,きめ細かい性別方向を求めるアルゴリズムを提案する。
実験により, 下流タスクにおけるBERT誘発バイアスの低減に成功していることがわかった。
論文 参考訳(メタデータ) (2020-09-10T17:38:32Z) - MDR Cluster-Debias: A Nonlinear WordEmbedding Debiasing Pipeline [3.180013942295509]
単語埋め込みの既存の手法は、しばしば表面的には、特定の性別とステレオタイプに結びついている単語は、デバイアスされた空間で一緒にクラスタ化される。
本稿では、この残差クラスタリングがなぜ存在するのか、どのように対処されるのかを考察する。
残留バイアスが存在する2つの潜在的な理由を特定し、このバイアスを軽減するために新しいパイプラインであるMDR Cluster-Debiasを開発する。
論文 参考訳(メタデータ) (2020-06-20T20:03:07Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。