論文の概要: "Thy algorithm shalt not bear false witness": An Evaluation of
Multiclass Debiasing Methods on Word Embeddings
- arxiv url: http://arxiv.org/abs/2010.16228v2
- Date: Wed, 4 Nov 2020 09:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 15:53:41.687794
- Title: "Thy algorithm shalt not bear false witness": An Evaluation of
Multiclass Debiasing Methods on Word Embeddings
- Title(参考訳): 「3つのアルゴリズムは偽証を負わない」:単語埋め込みにおけるマルチクラスデバイアス法の評価
- Authors: Thalea Schlender and Gerasimos Spanakis
- Abstract要約: 本稿では,最先端のマルチクラス・デバイアス技術であるハード・デバイアス,ソフトウィート・デバイアス,コンセプタ・デバイアスについて検討する。
単語埋め込みアソシエーションテスト(WEAT)、平均コサイン類似度(MAC)、相対負性感覚バイアス(RNSB)によるバイアス除去を定量化することにより、共通のバイアス除去時のパフォーマンスを評価する。
- 参考スコア(独自算出の注目度): 3.0204693431381515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the vast development and employment of artificial intelligence
applications, research into the fairness of these algorithms has been
increased. Specifically, in the natural language processing domain, it has been
shown that social biases persist in word embeddings and are thus in danger of
amplifying these biases when used. As an example of social bias, religious
biases are shown to persist in word embeddings and the need for its removal is
highlighted. This paper investigates the state-of-the-art multiclass debiasing
techniques: Hard debiasing, SoftWEAT debiasing and Conceptor debiasing. It
evaluates their performance when removing religious bias on a common basis by
quantifying bias removal via the Word Embedding Association Test (WEAT), Mean
Average Cosine Similarity (MAC) and the Relative Negative Sentiment Bias
(RNSB). By investigating the religious bias removal on three widely used word
embeddings, namely: Word2Vec, GloVe, and ConceptNet, it is shown that the
preferred method is ConceptorDebiasing. Specifically, this technique manages to
decrease the measured religious bias on average by 82,42%, 96,78% and 54,76%
for the three word embedding sets respectively.
- Abstract(参考訳): 人工知能応用の広範な発展と雇用に伴い、これらのアルゴリズムの公平性に関する研究が増加している。
具体的には、自然言語処理領域において、単語埋め込みにおいて社会的バイアスが持続し、使用時にこれらのバイアスを増幅する危険性があることが示されている。
社会バイアスの例として、宗教バイアスは単語埋め込みの中で持続し、その除去の必要性が強調される。
本稿では,最先端のマルチクラスデバイアス技術であるハードデバイアス,ソフトウィートデバイアス,コンセプタデバイアスについて検討する。
単語埋め込みアソシエーションテスト(WEAT)、平均コサイン類似度(MAC)、相対負性感覚バイアス(RNSB)によるバイアス除去を定量化することにより、共通のバイアスを取り除く際のパフォーマンスを評価する。
word2vec、glove、conceptnetの3つの広く使われている単語埋め込みの宗教的バイアス除去を調査し、この方法がconceptordebiasingであることを示した。
具体的には、3つの単語埋め込み集合について、測定された宗教バイアスを平均82,42%、96,78%、54,76%減少させる。
関連論文リスト
- Debiasing Sentence Embedders through Contrastive Word Pairs [46.9044612783003]
NLP解に対する線形および非線形バイアス情報を除去する手法を検討する。
従来のバイアス指標と非線形情報を考慮に入れたバイアス指標の共通偏り評価手法との比較を行った。
論文 参考訳(メタデータ) (2024-03-27T13:34:59Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Identification of Biased Terms in News Articles by Comparison of
Outlet-specific Word Embeddings [9.379650501033465]
我々は2つの単語埋め込みモデルを訓練し、1つは左翼のテキストで、もう1つは右翼のニュースメディアで訓練する。
我々の仮説は、単語の埋め込み空間における表現は、偏りのある単語よりも非偏りのある単語に類似している、というものである。
本稿では,単語の埋め込みによって測定されたバイアス語の文脈を詳細に考察する。
論文 参考訳(メタデータ) (2021-12-14T13:23:49Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Nurse is Closer to Woman than Surgeon? Mitigating Gender-Biased
Proximities in Word Embeddings [37.65897382453336]
単語ベクターの空間配置に隠された性別バイアスを緩和することは,既存の単語埋め込みの処理方法では不可能である。
我々は,単語ベクトルに存在するバイアスを排除し,隣接するベクトルの空間分布を変化させる,新しいジェンダーデバイアス手法であるRAN-Debiasを提案する。
我々はまた、新しいバイアス評価指標、ジェンダーベースIllicit Proximity Estimate (GIPE)を提案する。
論文 参考訳(メタデータ) (2020-06-02T20:50:43Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Joint Multiclass Debiasing of Word Embeddings [5.1135133995376085]
本稿では,複数のバイアス次元を同時に脱バイアスできる多クラス脱バイアス手法を提案する。
単語埋め込みにおけるベクトル間の有意義な関係を維持しながら、私たちの概念がバイアスを減らすか、あるいは完全に排除できることを示す。
論文 参考訳(メタデータ) (2020-03-09T22:06:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。