論文の概要: Evaluating Debiasing Techniques for Intersectional Biases
- arxiv url: http://arxiv.org/abs/2109.10441v1
- Date: Tue, 21 Sep 2021 22:01:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-23 23:17:49.974061
- Title: Evaluating Debiasing Techniques for Intersectional Biases
- Title(参考訳): 交叉バイアスに対するデバイアス手法の評価
- Authors: Shivashankar Subramanian, Xudong Han, Timothy Baldwin, Trevor Cohn,
Lea Frermann
- Abstract要約: バイアスはNLPモデルに広く浸透し、自動デバイアス技術の開発を動機付けている。
この論文では、真に公正なモデルは、単一の属性だけでなく、交叉群を構成するゲーリーマンダリング群を考慮すべきである、と論じる。
- 参考スコア(独自算出の注目度): 53.41549919978481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bias is pervasive in NLP models, motivating the development of automatic
debiasing techniques. Evaluation of NLP debiasing methods has largely been
limited to binary attributes in isolation, e.g., debiasing with respect to
binary gender or race, however many corpora involve multiple such attributes,
possibly with higher cardinality. In this paper we argue that a truly fair
model must consider `gerrymandering' groups which comprise not only single
attributes, but also intersectional groups. We evaluate a form of
bias-constrained model which is new to NLP, as well an extension of the
iterative nullspace projection technique which can handle multiple protected
attributes.
- Abstract(参考訳): バイアスはnlpモデルに浸透し、自動デバイアス技術の開発を動機付ける。
NLP脱バイアス法の評価は、主に二項性や人種に関する脱バイアスなど、分離された二項性属性に制限されているが、多くのコーパスは、おそらく高い濃度で複数の属性を含む。
本稿では、真に公平なモデルでは、単一の属性だけでなく交叉群も含む「ジェリーマンデリング」群を考える必要があると論じる。
我々は,nlpに新しいバイアス制約付きモデルと,複数の保護属性を処理可能な反復的ヌルスペース投影手法の拡張を評価する。
関連論文リスト
- Unlabeled Debiasing in Downstream Tasks via Class-wise Low Variance Regularization [13.773597081543185]
本稿では,組込みのクラスワイドな分散に基づく新しいデバイアス正規化手法を提案する。
提案手法は属性ラベルを必要とせず,属性をターゲットとせず,既存のデバイアス手法の欠点に対処する。
論文 参考訳(メタデータ) (2024-09-29T03:56:50Z) - Projective Methods for Mitigating Gender Bias in Pre-trained Language Models [10.418595661963062]
プロジェクティブメソッドは実装が高速で、少数の保存されたパラメータを使用し、既存のモデルパラメータを更新しない。
射影法は内在バイアスと下流バイアス軽減の両方に有効であるが, 両者の結果は必ずしも相関しない。
論文 参考訳(メタデータ) (2024-03-27T17:49:31Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - xFAIR: Better Fairness via Model-based Rebalancing of Protected
Attributes [15.525314212209564]
機械学習ソフトウェアは、特定の保護された社会グループに対して不適切な差別を行うモデルを生成することができる。
本稿では,モデルに基づく外挿法であるxFAIRを提案する。
論文 参考訳(メタデータ) (2021-10-03T22:10:14Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - A Generative Approach for Mitigating Structural Biases in Natural
Language Inference [24.44419010439227]
本研究では、NLIタスクを生成タスクとして再構成し、モデルが入力とラベルのバイアス付きサブセットに条件付けされるようにする。
このアプローチは大量のバイアスに対して非常に堅牢であることを示す。
生成モデルは訓練が困難であり、識別ベースラインよりも一般的にはパフォーマンスが悪くなっている。
論文 参考訳(メタデータ) (2021-08-31T17:59:45Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z) - Towards Robustifying NLI Models Against Lexical Dataset Biases [94.79704960296108]
本稿では、語彙的データセットバイアスに対するモデル強化のための、データレベルとモデルレベルのデバイアス法の両方について検討する。
まず、データ拡張と拡張によってデータセットをデバイアスするが、この方法でモデルバイアスを完全に除去することはできないことを示す。
第2のアプローチでは、バーオブワードのサブモデルを使用して、バイアスを悪用する可能性のある機能をキャプチャし、元のモデルがこれらのバイアス付き機能を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2020-05-10T17:56:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。