論文の概要: [Re] Badder Seeds: Reproducing the Evaluation of Lexical Methods for
Bias Measurement
- arxiv url: http://arxiv.org/abs/2206.01767v1
- Date: Fri, 3 Jun 2022 18:00:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-12 17:57:21.987227
- Title: [Re] Badder Seeds: Reproducing the Evaluation of Lexical Methods for
Bias Measurement
- Title(参考訳): [re]バダー種子:バイアス測定のための語彙法の評価を再現する
- Authors: Jille van der Togt, Lea Tiyavorabun, Matteo Rosati, Giulio Starace
- Abstract要約: バイアス測定は、ほとんど常にシード項のレキシコンを用いて達成される。
本研究は,これらのレキシコン構築の理論的根拠を徹底的に検証する必要があるという原作者の主張に焦点をあてる。
著者の主張を支持する結果のほとんどを再現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Combating bias in NLP requires bias measurement. Bias measurement is almost
always achieved by using lexicons of seed terms, i.e. sets of words specifying
stereotypes or dimensions of interest. This reproducibility study focuses on
the original authors' main claim that the rationale for the construction of
these lexicons needs thorough checking before usage, as the seeds used for bias
measurement can themselves exhibit biases. The study aims to evaluate the
reproducibility of the quantitative and qualitative results presented in the
paper and the conclusions drawn thereof. We reproduce most of the results
supporting the original authors' general claim: seed sets often suffer from
biases that affect their performance as a baseline for bias metrics. Generally,
our results mirror the original paper's. They are slightly different on select
occasions, but not in ways that undermine the paper's general intent to show
the fragility of seed sets.
- Abstract(参考訳): NLPの燃焼バイアスはバイアス測定を必要とする。
偏りの測定は、ほとんど常にシード項のレキシコン(例えば、ステレオタイプや関心の次元を特定する単語の集合)を用いて行われる。
この再現性の研究は、バイアス測定に使用される種がバイアスを示す可能性があるため、これらのレキシコンの構築の根拠は使用前に徹底的な検査が必要であるという原著者の主な主張に焦点を当てている。
本研究は,論文に提示された量的および質的結果の再現性とその結論を評価することを目的とする。
シードセットは、しばしばバイアスメトリクスのベースラインとしてのパフォーマンスに影響を与えるバイアスに悩まされる。
概して、私たちの結果は原論文を反映している。
特定の場面では若干異なるが、シードセットの脆弱さを示すという論文の一般的な意図を損なうものではない。
関連論文リスト
- Mitigating Gender Bias in Contextual Word Embeddings [1.208453901299241]
本稿では,コンテキスト埋め込みにおける性別バイアスを大幅に軽減する,リップスティック(マスケ・ランゲージ・モデリング)の新たな目的関数を提案する。
また, 静的な埋め込みを嫌悪する新しい手法を提案し, 広範囲な解析と実験による実証実験を行った。
論文 参考訳(メタデータ) (2024-11-18T21:36:44Z) - GradBias: Unveiling Word Influence on Bias in Text-to-Image Generative Models [75.04426753720553]
開集合におけるバイアスを特定し,定量化し,説明するための枠組みを提案する。
このパイプラインはLarge Language Model (LLM)を活用して、一連のキャプションから始まるバイアスを提案する。
このフレームワークには、OpenBiasとGradBiasの2つのバリエーションがあります。
論文 参考訳(メタデータ) (2024-08-29T16:51:07Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Semantic Properties of cosine based bias scores for word embeddings [48.0753688775574]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - Looking at the Overlooked: An Analysis on the Word-Overlap Bias in
Natural Language Inference [20.112129592923246]
我々は、NLIモデルにおける重複バイアスの見過ごされた側面、すなわちリバースワードオーバーラップバイアスに焦点を当てる。
現在のNLIモデルは、重複の少ないインスタンスにおいて、非エンターメントラベルに対して非常に偏りがある。
重なり合うバイアスの出現とその緩和におけるマイノリティ事例の役割について検討する。
論文 参考訳(メタデータ) (2022-11-07T21:02:23Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Evaluating Metrics for Bias in Word Embeddings [44.14639209617701]
我々は、過去の研究の考えに基づいてバイアス定義を定式化し、バイアスメトリクスの条件を導出する。
そこで我々は,既存のメトリクスの欠点に対処する新しい計量であるhetを提案し,その振る舞いを数学的に証明する。
論文 参考訳(メタデータ) (2021-11-15T16:07:15Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。