論文の概要: "Thy algorithm shalt not bear false witness": An Evaluation of
Multiclass Debiasing Methods on Word Embeddings
- arxiv url: http://arxiv.org/abs/2010.16228v2
- Date: Wed, 4 Nov 2020 09:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 15:53:41.687794
- Title: "Thy algorithm shalt not bear false witness": An Evaluation of
Multiclass Debiasing Methods on Word Embeddings
- Title(参考訳): 「3つのアルゴリズムは偽証を負わない」:単語埋め込みにおけるマルチクラスデバイアス法の評価
- Authors: Thalea Schlender and Gerasimos Spanakis
- Abstract要約: 本稿では,最先端のマルチクラス・デバイアス技術であるハード・デバイアス,ソフトウィート・デバイアス,コンセプタ・デバイアスについて検討する。
単語埋め込みアソシエーションテスト(WEAT)、平均コサイン類似度(MAC)、相対負性感覚バイアス(RNSB)によるバイアス除去を定量化することにより、共通のバイアス除去時のパフォーマンスを評価する。
- 参考スコア(独自算出の注目度): 3.0204693431381515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the vast development and employment of artificial intelligence
applications, research into the fairness of these algorithms has been
increased. Specifically, in the natural language processing domain, it has been
shown that social biases persist in word embeddings and are thus in danger of
amplifying these biases when used. As an example of social bias, religious
biases are shown to persist in word embeddings and the need for its removal is
highlighted. This paper investigates the state-of-the-art multiclass debiasing
techniques: Hard debiasing, SoftWEAT debiasing and Conceptor debiasing. It
evaluates their performance when removing religious bias on a common basis by
quantifying bias removal via the Word Embedding Association Test (WEAT), Mean
Average Cosine Similarity (MAC) and the Relative Negative Sentiment Bias
(RNSB). By investigating the religious bias removal on three widely used word
embeddings, namely: Word2Vec, GloVe, and ConceptNet, it is shown that the
preferred method is ConceptorDebiasing. Specifically, this technique manages to
decrease the measured religious bias on average by 82,42%, 96,78% and 54,76%
for the three word embedding sets respectively.
- Abstract(参考訳): 人工知能応用の広範な発展と雇用に伴い、これらのアルゴリズムの公平性に関する研究が増加している。
具体的には、自然言語処理領域において、単語埋め込みにおいて社会的バイアスが持続し、使用時にこれらのバイアスを増幅する危険性があることが示されている。
社会バイアスの例として、宗教バイアスは単語埋め込みの中で持続し、その除去の必要性が強調される。
本稿では,最先端のマルチクラスデバイアス技術であるハードデバイアス,ソフトウィートデバイアス,コンセプタデバイアスについて検討する。
単語埋め込みアソシエーションテスト(WEAT)、平均コサイン類似度(MAC)、相対負性感覚バイアス(RNSB)によるバイアス除去を定量化することにより、共通のバイアスを取り除く際のパフォーマンスを評価する。
word2vec、glove、conceptnetの3つの広く使われている単語埋め込みの宗教的バイアス除去を調査し、この方法がconceptordebiasingであることを示した。
具体的には、3つの単語埋め込み集合について、測定された宗教バイアスを平均82,42%、96,78%、54,76%減少させる。
関連論文リスト
- Semantic Properties of cosine based bias scores for word embeddings [52.13994416317707]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - The SAME score: Improved cosine based bias score for word embeddings [63.24247894974291]
文献の考えに基づくバイアス定義を提供し、バイアススコアの新たな要件を導出する。
既存のバイアススコアの欠点に対処し,単語埋め込みにおけるバイアスの定量化に好適であることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Identification of Biased Terms in News Articles by Comparison of
Outlet-specific Word Embeddings [9.379650501033465]
我々は2つの単語埋め込みモデルを訓練し、1つは左翼のテキストで、もう1つは右翼のニュースメディアで訓練する。
我々の仮説は、単語の埋め込み空間における表現は、偏りのある単語よりも非偏りのある単語に類似している、というものである。
本稿では,単語の埋め込みによって測定されたバイアス語の文脈を詳細に考察する。
論文 参考訳(メタデータ) (2021-12-14T13:23:49Z) - Evaluating Metrics for Bias in Word Embeddings [64.55554083622258]
我々は、過去の研究の考えに基づいてバイアス定義を定式化し、バイアスメトリクスの条件を導出する。
そこで我々は,既存のメトリクスの欠点に対処する新しい計量であるhetを提案し,その振る舞いを数学的に証明する。
論文 参考訳(メタデータ) (2021-11-15T16:07:15Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Nurse is Closer to Woman than Surgeon? Mitigating Gender-Biased
Proximities in Word Embeddings [37.65897382453336]
単語ベクターの空間配置に隠された性別バイアスを緩和することは,既存の単語埋め込みの処理方法では不可能である。
我々は,単語ベクトルに存在するバイアスを排除し,隣接するベクトルの空間分布を変化させる,新しいジェンダーデバイアス手法であるRAN-Debiasを提案する。
我々はまた、新しいバイアス評価指標、ジェンダーベースIllicit Proximity Estimate (GIPE)を提案する。
論文 参考訳(メタデータ) (2020-06-02T20:50:43Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Joint Multiclass Debiasing of Word Embeddings [5.1135133995376085]
本稿では,複数のバイアス次元を同時に脱バイアスできる多クラス脱バイアス手法を提案する。
単語埋め込みにおけるベクトル間の有意義な関係を維持しながら、私たちの概念がバイアスを減らすか、あるいは完全に排除できることを示す。
論文 参考訳(メタデータ) (2020-03-09T22:06:37Z) - Towards Detection of Subjective Bias using Contextualized Word
Embeddings [9.475039534437332]
Wiki Neutrality Corpus(WNC)を用いたBERTモデルを用いた主観バイアス検出実験を行った。
データセットは、ウィキペディアの編集から360万ドルのラベル付きインスタンスで構成され、バイアスのさまざまなインスタンスを削除する。
論文 参考訳(メタデータ) (2020-02-16T18:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。