論文の概要: MDR Cluster-Debias: A Nonlinear WordEmbedding Debiasing Pipeline
- arxiv url: http://arxiv.org/abs/2006.11642v1
- Date: Sat, 20 Jun 2020 20:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 22:54:23.560859
- Title: MDR Cluster-Debias: A Nonlinear WordEmbedding Debiasing Pipeline
- Title(参考訳): mdrクラスタデビアス : 非線形ワード埋め込みデバイアスパイプライン
- Authors: Yuhao Du and Kenneth Joseph
- Abstract要約: 単語埋め込みの既存の手法は、しばしば表面的には、特定の性別とステレオタイプに結びついている単語は、デバイアスされた空間で一緒にクラスタ化される。
本稿では、この残差クラスタリングがなぜ存在するのか、どのように対処されるのかを考察する。
残留バイアスが存在する2つの潜在的な理由を特定し、このバイアスを軽減するために新しいパイプラインであるMDR Cluster-Debiasを開発する。
- 参考スコア(独自算出の注目度): 3.180013942295509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing methods for debiasing word embeddings often do so only
superficially, in that words that are stereotypically associated with, e.g., a
particular gender in the original embedding space can still be clustered
together in the debiased space. However, there has yet to be a study that
explores why this residual clustering exists, and how it might be addressed.
The present work fills this gap. We identify two potential reasons for which
residual bias exists and develop a new pipeline, MDR Cluster-Debias, to
mitigate this bias. We explore the strengths and weaknesses of our method,
finding that it significantly outperforms other existing debiasing approaches
on a variety of upstream bias tests but achieves limited improvement on
decreasing gender bias in a downstream task. This indicates that word
embeddings encode gender bias in still other ways, not necessarily captured by
upstream tests.
- Abstract(参考訳): 既存の単語埋め込みの手法は、しばしば表面的には、例えば、元の埋め込み空間の特定の性別が、デバイアスされた空間で一緒にクラスタ化されるように、ステレオタイプに関連づけられた単語に限られる。
しかし、なぜこの残留クラスタリングが存在するのか、どのように対処されるのかを調査する研究はまだない。
現在の仕事はこのギャップを埋める。
残留バイアスが存在する2つの潜在的な理由を特定し、このバイアスを軽減するために新しいパイプラインであるMDR Cluster-Debiasを開発する。
提案手法の長所と短所について検討し, 様々な上流バイアステストにおいて既存デバイアス法を著しく上回っているが, 下流タスクにおける男女バイアスの減少に限定的な改善が達成できることを示した。
これは、単語埋め込みが性バイアスを他の方法で符号化していることを示しているが、必ずしも上流テストによってキャプチャされるわけではない。
関連論文リスト
- Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Looking at the Overlooked: An Analysis on the Word-Overlap Bias in
Natural Language Inference [20.112129592923246]
我々は、NLIモデルにおける重複バイアスの見過ごされた側面、すなわちリバースワードオーバーラップバイアスに焦点を当てる。
現在のNLIモデルは、重複の少ないインスタンスにおいて、非エンターメントラベルに対して非常に偏りがある。
重なり合うバイアスの出現とその緩和におけるマイノリティ事例の役割について検討する。
論文 参考訳(メタデータ) (2022-11-07T21:02:23Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Identifying and Mitigating Gender Bias in Hyperbolic Word Embeddings [34.378806636170616]
ジェンダーバイアスの研究を、最近普及したハイパーボリック単語の埋め込みに拡張する。
本稿では,双曲型単語表現におけるジェンダーバイアスを定量化するための新しい尺度であるジロコシンバイアスを提案する。
評価試験の結果、Poincar'e Gender Debias (PGD) は最小のセマンティックオフセットを追加しながらバイアスを効果的に低減することが示された。
論文 参考訳(メタデータ) (2021-09-28T14:43:37Z) - The Gap on GAP: Tackling the Problem of Differing Data Distributions in
Bias-Measuring Datasets [58.53269361115974]
バイアスモデルを検出する診断データセットは、自然言語処理におけるバイアス低減の重要な前提条件である。
収集されたデータの望ましくないパターンは、そのようなテストを誤ったものにします。
実験データにおけるそのようなパターンに対処するために, 実験サンプルを重み付けする理論的基礎的手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T16:50:13Z) - Robustness and Reliability of Gender Bias Assessment in Word Embeddings:
The Role of Base Pairs [23.574442657224008]
単語埋め込みはジェンダーバイアスを示すことが示されており、これを定量化するために様々な方法が提案されている。
これまでの研究では、男女の単語ペアを利用して偏見を測定し、偏見のある類似点を抽出してきた。
これらの性的なペアへの依存には、強い制限があることが示される。
特に、"man is to computer-grammer as woman is to homemaker"というよく知られたアナロジーは、社会的バイアスよりも言葉の類似性によるものである。
論文 参考訳(メタデータ) (2020-10-06T16:09:05Z) - Exploring the Linear Subspace Hypothesis in Gender Bias Mitigation [57.292988892028134]
Bolukbasi et al. は、単語表現のための最初の性別バイアス緩和手法の1つである。
我々はそれらの手法を、カーネル化された非線形バージョンに一般化する。
我々は、バイアス部分空間が実際に線型であるかどうかを経験的に分析する。
論文 参考訳(メタデータ) (2020-09-20T14:13:45Z) - Nurse is Closer to Woman than Surgeon? Mitigating Gender-Biased
Proximities in Word Embeddings [37.65897382453336]
単語ベクターの空間配置に隠された性別バイアスを緩和することは,既存の単語埋め込みの処理方法では不可能である。
我々は,単語ベクトルに存在するバイアスを排除し,隣接するベクトルの空間分布を変化させる,新しいジェンダーデバイアス手法であるRAN-Debiasを提案する。
我々はまた、新しいバイアス評価指標、ジェンダーベースIllicit Proximity Estimate (GIPE)を提案する。
論文 参考訳(メタデータ) (2020-06-02T20:50:43Z) - Mitigating Gender Bias Amplification in Distribution by Posterior
Regularization [75.3529537096899]
本稿では,男女差の増幅問題について,分布の観点から検討する。
後続正則化に基づくバイアス緩和手法を提案する。
私たちの研究はバイアス増幅の理解に光を当てている。
論文 参考訳(メタデータ) (2020-05-13T11:07:10Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。