論文の概要: Joint Multiclass Debiasing of Word Embeddings
- arxiv url: http://arxiv.org/abs/2003.11520v1
- Date: Mon, 9 Mar 2020 22:06:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 07:40:14.331069
- Title: Joint Multiclass Debiasing of Word Embeddings
- Title(参考訳): 単語埋め込みの多層的デバイアス
- Authors: Radomir Popovi\'c, Florian Lemmerich and Markus Strohmaier
- Abstract要約: 本稿では,複数のバイアス次元を同時に脱バイアスできる多クラス脱バイアス手法を提案する。
単語埋め込みにおけるベクトル間の有意義な関係を維持しながら、私たちの概念がバイアスを減らすか、あるいは完全に排除できることを示す。
- 参考スコア(独自算出の注目度): 5.1135133995376085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bias in Word Embeddings has been a subject of recent interest, along with
efforts for its reduction. Current approaches show promising progress towards
debiasing single bias dimensions such as gender or race. In this paper, we
present a joint multiclass debiasing approach that is capable of debiasing
multiple bias dimensions simultaneously. In that direction, we present two
approaches, HardWEAT and SoftWEAT, that aim to reduce biases by minimizing the
scores of the Word Embeddings Association Test (WEAT). We demonstrate the
viability of our methods by debiasing Word Embeddings on three classes of
biases (religion, gender and race) in three different publicly available word
embeddings and show that our concepts can both reduce or even completely
eliminate bias, while maintaining meaningful relationships between vectors in
word embeddings. Our work strengthens the foundation for more unbiased neural
representations of textual data.
- Abstract(参考訳): Word Embeddingsのバイアスは、その削減の取り組みとともに、近年の関心の対象となっている。
現在のアプローチは、性別や人種のような単一のバイアス次元をデバイアスする有望な進歩を示している。
本稿では,複数のバイアス次元を同時にデバイアスできる多クラス脱バイアス手法を提案する。
そこで我々は,Word Embeddings Association Test (WEAT) のスコアを最小化し,バイアス軽減を目的としたHardWEATとSoftWEATの2つのアプローチを提案する。
我々は,3種類のバイアス(宗教,性別,人種)に対して,単語埋め込みを偏在させることにより,その実現可能性を示すとともに,単語埋め込みにおけるベクトル間の有意義な関係を維持しつつ,バイアスを低減あるいは完全に排除できることを示す。
我々の研究は、テキストデータのより偏りのない神経表現の基礎を強化する。
関連論文リスト
- Debiasing Sentence Embedders through Contrastive Word Pairs [46.9044612783003]
NLP解に対する線形および非線形バイアス情報を除去する手法を検討する。
従来のバイアス指標と非線形情報を考慮に入れたバイアス指標の共通偏り評価手法との比較を行った。
論文 参考訳(メタデータ) (2024-03-27T13:34:59Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Detecting and Mitigating Indirect Stereotypes in Word Embeddings [6.428026202398116]
有害なステレオタイプを含む単語の使用における社会的バイアスは、一般的な単語埋め込み法によってしばしば学習される。
分散単語埋め込みにおける間接バイアスを軽減するため, BIRM (Biased Indirect Relationship Modification) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-23T23:23:49Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - "Thy algorithm shalt not bear false witness": An Evaluation of
Multiclass Debiasing Methods on Word Embeddings [3.0204693431381515]
本稿では,最先端のマルチクラス・デバイアス技術であるハード・デバイアス,ソフトウィート・デバイアス,コンセプタ・デバイアスについて検討する。
単語埋め込みアソシエーションテスト(WEAT)、平均コサイン類似度(MAC)、相対負性感覚バイアス(RNSB)によるバイアス除去を定量化することにより、共通のバイアス除去時のパフォーマンスを評価する。
論文 参考訳(メタデータ) (2020-10-30T12:49:39Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases [10.713568409205077]
最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
本稿では、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できる、コンテキスト適応型埋め込みアソシエーションテスト(CEAT)を紹介する。
静的な単語埋め込みから交差点バイアスと緊急交差点バイアスを自動的に識別する2つの方法,IBD (Intersectional Bias Detection) とEmergent Intersectional Bias Detection (EIBD) を開発した。
論文 参考訳(メタデータ) (2020-06-06T19:49:50Z) - Nurse is Closer to Woman than Surgeon? Mitigating Gender-Biased
Proximities in Word Embeddings [37.65897382453336]
単語ベクターの空間配置に隠された性別バイアスを緩和することは,既存の単語埋め込みの処理方法では不可能である。
我々は,単語ベクトルに存在するバイアスを排除し,隣接するベクトルの空間分布を変化させる,新しいジェンダーデバイアス手法であるRAN-Debiasを提案する。
我々はまた、新しいバイアス評価指標、ジェンダーベースIllicit Proximity Estimate (GIPE)を提案する。
論文 参考訳(メタデータ) (2020-06-02T20:50:43Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。