論文の概要: How Far Can It Go?: On Intrinsic Gender Bias Mitigation for Text
Classification
- arxiv url: http://arxiv.org/abs/2301.12855v1
- Date: Mon, 30 Jan 2023 13:05:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 14:50:58.126252
- Title: How Far Can It Go?: On Intrinsic Gender Bias Mitigation for Text
Classification
- Title(参考訳): どこまで行ける?
テキスト分類における内在性バイアス緩和について
- Authors: Ewoenam Tokpo, Pieter Delobelle, Bettina Berendt and Toon Calders
- Abstract要約: そこで,本研究では,本態性バイアス緩和戦略が下流テキスト分類タスクに与える影響について検討する。
それぞれの緩和技術は、固有のバイアス対策からバイアスを隠すことができるが、すべてではないことを示す。
我々は、本質的なバイアス軽減手法と、下流タスクに対する他の公平な介入を組み合わせることを推奨する。
- 参考スコア(独自算出の注目度): 12.165921897192902
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To mitigate gender bias in contextualized language models, different
intrinsic mitigation strategies have been proposed, alongside many bias
metrics. Considering that the end use of these language models is for
downstream tasks like text classification, it is important to understand how
these intrinsic bias mitigation strategies actually translate to fairness in
downstream tasks and the extent of this. In this work, we design a probe to
investigate the effects that some of the major intrinsic gender bias mitigation
strategies have on downstream text classification tasks. We discover that
instead of resolving gender bias, intrinsic mitigation techniques and metrics
are able to hide it in such a way that significant gender information is
retained in the embeddings. Furthermore, we show that each mitigation technique
is able to hide the bias from some of the intrinsic bias measures but not all,
and each intrinsic bias measure can be fooled by some mitigation techniques,
but not all. We confirm experimentally, that none of the intrinsic mitigation
techniques used without any other fairness intervention is able to consistently
impact extrinsic bias. We recommend that intrinsic bias mitigation techniques
should be combined with other fairness interventions for downstream tasks.
- Abstract(参考訳): 文脈化された言語モデルのジェンダーバイアスを軽減するために、多くのバイアスメトリクスとともに、さまざまな内在的緩和戦略が提案されている。
これらの言語モデルのエンドユースを、テキスト分類のような下流タスクに向けることを考えると、これらの固有のバイアス緩和戦略が、下流タスクの公平さとそれの程度にどのように変換されるかを理解することが重要である。
本研究では,本研究において,性バイアス軽減戦略が下流のテキスト分類課題に与えた影響を調べるためのプローブを考案する。
性別バイアスを解決する代わりに、本質的緩和技術とメトリクスは、埋め込みに重要な性別情報が保持されるようにそれを隠せることを発見した。
さらに,各緩和手法は本質的バイアス尺度からバイアスを隠蔽できるがすべてではないことを示し,本質的バイアス尺度はいくつかの緩和手法によって騙されるがすべてではないことを示す。
実験により,他の公平な介入を伴わない内在的緩和技術が外因性バイアスに一貫した影響を及ぼさないことを確認した。
本質的なバイアス緩和手法と下流タスクに対する他の公平な介入を組み合わせることを推奨する。
関連論文リスト
- Mitigating Gender Bias in Contextual Word Embeddings [1.208453901299241]
本稿では,コンテキスト埋め込みにおける性別バイアスを大幅に軽減する,リップスティック(マスケ・ランゲージ・モデリング)の新たな目的関数を提案する。
また, 静的な埋め込みを嫌悪する新しい手法を提案し, 広範囲な解析と実験による実証実験を行った。
論文 参考訳(メタデータ) (2024-11-18T21:36:44Z) - Gender Bias Mitigation for Bangla Classification Tasks [2.6285986998314783]
バングラ語事前学習言語モデルにおける性別バイアスについて検討する。
名前と性別固有の用語を変更することで、これらのデータセットが性別バイアスを検出し緩和するのに適していることを確認した。
論文 参考訳(メタデータ) (2024-11-16T00:04:45Z) - Applying Intrinsic Debiasing on Downstream Tasks: Challenges and Considerations for Machine Translation [19.06428714669272]
内在的デバイアスの手法がニューラルマシン翻訳モデルにどのように影響するかを系統的に検証する。
私たちは、デバイアスングテクニックとエンドゴール使用の3つの課題とミスマッチを強調します。
論文 参考訳(メタデータ) (2024-06-02T15:57:29Z) - How to be fair? A study of label and selection bias [3.018638214344819]
バイアス付きデータがバイアス付きおよび潜在的に不公平なモデルにつながることは広く受け入れられている。
データにおけるバイアスとモデル予測のためのいくつかの尺度が提案され、バイアス軽減技術が提案されている。
過去10年間に開発された無数の緩和技術にもかかわらず、どの方法が機能するかはいまだに理解されていない。
論文 参考訳(メタデータ) (2024-03-21T10:43:55Z) - Explaining Knock-on Effects of Bias Mitigation [13.46387356280467]
機械学習システムでは、バイアス緩和アプローチは特権と特権のないグループ間で成果をより公平にすることを目的としている。
本稿では,緩和介入を適用した場合のコホートの影響を特徴付けることを目的とする。
モデルライフサイクルの様々な段階で機能するバイアス緩和戦略について検討する。
検討の結果,全ての緩和策が非自明な事例,すなわち緩和努力のみでは望ましくない結果に悪影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2023-12-01T18:40:37Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。