論文の概要: Evaluating Bias In Dutch Word Embeddings
- arxiv url: http://arxiv.org/abs/2011.00244v2
- Date: Tue, 3 Nov 2020 22:34:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:47:28.508129
- Title: Evaluating Bias In Dutch Word Embeddings
- Title(参考訳): オランダ語の単語埋め込みにおけるバイアスの評価
- Authors: Rodrigo Alejandro Ch\'avez Mulsa and Gerasimos Spanakis
- Abstract要約: オランダ語埋め込みにおける性別バイアスを定量化するために,単語埋め込みアソシエーションテスト(WEAT),クラスタリングおよび文埋め込みアソシエーションテスト(SEAT)手法を実装した。
本研究では, 従来の埋め込みに無視できる影響と, 文脈的埋め込みにおける性能の2%低下を示す下流タスクに対するデバイアス手法の効果を解析した。
- 参考スコア(独自算出の注目度): 2.5567566997688043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research in Natural Language Processing has revealed that word
embeddings can encode social biases present in the training data which can
affect minorities in real world applications. This paper explores the gender
bias implicit in Dutch embeddings while investigating whether English language
based approaches can also be used in Dutch. We implement the Word Embeddings
Association Test (WEAT), Clustering and Sentence Embeddings Association Test
(SEAT) methods to quantify the gender bias in Dutch word embeddings, then we
proceed to reduce the bias with Hard-Debias and Sent-Debias mitigation methods
and finally we evaluate the performance of the debiased embeddings in
downstream tasks. The results suggest that, among others, gender bias is
present in traditional and contextualized Dutch word embeddings. We highlight
how techniques used to measure and reduce bias created for English can be used
in Dutch embeddings by adequately translating the data and taking into account
the unique characteristics of the language. Furthermore, we analyze the effect
of the debiasing techniques on downstream tasks which show a negligible impact
on traditional embeddings and a 2% decrease in performance in contextualized
embeddings. Finally, we release the translated Dutch datasets to the public
along with the traditional embeddings with mitigated bias.
- Abstract(参考訳): 最近の自然言語処理の研究により、単語埋め込みは、実世界のアプリケーションにおけるマイノリティに影響を与える訓練データに存在する社会的バイアスを符号化できることが判明した。
本稿では,オランダ語埋め込みにおける性別バイアスについて検討し,英語ベースのアプローチがオランダ語でも使用可能かどうかについて検討する。
そこで,オランダ語の単語埋め込みにおける性別バイアスを定量化するために,単語埋め込み関連テスト (weat) とクラスタリング,文埋め込み関連テスト (seat) を実装した。
以上の結果から,従来のオランダ語の単語埋め込みには,性別バイアスが存在することが示唆された。
オランダの埋め込みにおいて、言語特有の特徴を考慮し、適切なデータ翻訳を行うことによって、英語のバイアスの測定と削減に使用されるテクニックをどのように利用できるかを強調した。
さらに, 従来の埋め込みに無視できる影響と, 文脈的埋め込みにおける性能の2%低下を示す下流タスクに対するデバイアス手法の効果を解析した。
最後に、翻訳されたオランダのデータセットと、緩和バイアスを伴う従来の埋め込みを公開します。
関連論文リスト
- The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - MABEL: Attenuating Gender Bias using Textual Entailment Data [20.489427903240017]
我々は、文脈化表現における性別バイアスを軽減するための中間的事前学習手法であるMABELを提案する。
このアプローチの鍵となるのは、非現実的に強化されたジェンダーバランスのエンターメントペアに対して、対照的な学習目標を使用することである。
我々はMABELが従来のタスク非依存のデバイアスアプローチよりも公平性で優れていることを示す。
論文 参考訳(メタデータ) (2022-10-26T18:36:58Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - On the Language Coverage Bias for Neural Machine Translation [81.81456880770762]
言語カバレッジバイアスは、ニューラルネットワーク翻訳(NMT)において重要である。
実験を慎重に設計することにより、トレーニングデータにおける言語カバレッジバイアスの包括的分析を行う。
本稿では,言語カバレッジバイアス問題を軽減するための,シンプルで効果的な2つのアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-07T01:55:34Z) - Unmasking Contextual Stereotypes: Measuring and Mitigating BERT's Gender
Bias [12.4543414590979]
文脈化された単語の埋め込みは、NLPシステムにおける標準的な埋め込みを置き換えている。
英語とドイツ語の専門職名と性別記述対象語との関係を調べた結果,性別バイアスを測定した。
偏見を測定する手法はドイツ語のような豊かでジェンダーの指標を持つ言語に適していることを示す。
論文 参考訳(メタデータ) (2020-10-27T18:06:09Z) - Fair Embedding Engine: A Library for Analyzing and Mitigating Gender
Bias in Word Embeddings [16.49645205111334]
非テクスチュアルな単語埋め込みモデルは、トレーニングコーパスから性別、人種、宗教の人間のようなステレオタイプバイアスを継承することが示されている。
本稿では,単語埋め込みにおける性別バイアスの分析・緩和のためのライブラリであるFair Embedding Engine (FEE)について述べる。
論文 参考訳(メタデータ) (2020-10-25T17:31:12Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Joint Multiclass Debiasing of Word Embeddings [5.1135133995376085]
本稿では,複数のバイアス次元を同時に脱バイアスできる多クラス脱バイアス手法を提案する。
単語埋め込みにおけるベクトル間の有意義な関係を維持しながら、私たちの概念がバイアスを減らすか、あるいは完全に排除できることを示す。
論文 参考訳(メタデータ) (2020-03-09T22:06:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。