論文の概要: Toward Understanding Bias Correlations for Mitigation in NLP
- arxiv url: http://arxiv.org/abs/2205.12391v1
- Date: Tue, 24 May 2022 22:48:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 01:16:18.808064
- Title: Toward Understanding Bias Correlations for Mitigation in NLP
- Title(参考訳): nlpにおけるバイアス相関の解明に向けて
- Authors: Lu Cheng, Suyu Ge, Huan Liu
- Abstract要約: この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
- 参考スコア(独自算出の注目度): 34.956581421295
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural Language Processing (NLP) models have been found discriminative
against groups of different social identities such as gender and race. With the
negative consequences of these undesired biases, researchers have responded
with unprecedented effort and proposed promising approaches for bias
mitigation. In spite of considerable practical importance, current algorithmic
fairness literature lacks an in-depth understanding of the relations between
different forms of biases. Social bias is complex by nature. Numerous studies
in social psychology identify the "generalized prejudice", i.e., generalized
devaluing sentiments across different groups. For example, people who devalue
ethnic minorities are also likely to devalue women and gays. Therefore, this
work aims to provide a first systematic study toward understanding bias
correlations in mitigation. In particular, we examine bias mitigation in two
common NLP tasks -- toxicity detection and word embeddings -- on three social
identities, i.e., race, gender, and religion. Our findings suggest that biases
are correlated and present scenarios in which independent debiasing approaches
dominant in current literature may be insufficient. We further investigate
whether jointly mitigating correlated biases is more desired than independent
and individual debiasing. Lastly, we shed light on the inherent issue of
debiasing-accuracy trade-off in bias mitigation. This study serves to motivate
future research on joint bias mitigation that accounts for correlated biases.
- Abstract(参考訳): 自然言語処理(NLP)モデルは、性別や人種など、異なる社会的アイデンティティを持つグループに対して差別的である。
これらの望ましくないバイアスの負の結果、研究者は前例のない努力で反応し、バイアス軽減のための有望なアプローチを提案した。
かなりの実用的重要性にもかかわらず、現在のアルゴリズム的公平性文学は、異なる形式のバイアスの関係について深い理解を欠いている。
社会的偏見は自然によって複雑である。
社会心理学における多くの研究は、「一般化された偏見」、すなわち、異なるグループ間での一般的な非評価感情を識別する。
例えば、少数民族を軽蔑する人々は、女性や同性愛者を軽蔑する傾向がある。
そこで本研究は,軽減におけるバイアス相関を理解するための最初の体系的研究である。
特に,3つの社会的アイデンティティ,すなわち人種,性別,宗教における2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討した。
本研究は, 偏見の相関が示唆され, 現状の文献において, 独立脱バイアスアプローチが支配的になるシナリオが不十分である可能性が示唆された。
さらに、相関バイアスの軽減が、独立性や個人的偏見よりも望ましいかどうかについても検討する。
最後に、バイアス緩和におけるデバイアスの正確さのトレードオフという本質的な問題に光を当てた。
本研究は,相関バイアスを考慮した統合バイアス緩和に関する今後の研究の動機となる。
関連論文リスト
- Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Causal foundations of bias, disparity and fairness [0.0]
偏見を不当な直接的な因果効果として定義することを提案する。
偏差をバイアスを含む直接的あるいは間接的な因果効果として定義することを提案する。
提案した定義は、より厳密で体系的な方法でバイアスと格差を研究するために使用することができる。
論文 参考訳(メタデータ) (2022-07-27T17:33:04Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - A Survey on Bias and Fairness in Natural Language Processing [1.713291434132985]
我々は、バイアスの起源、公平性の定義、NLPバイアスのサブフィールドの違いを緩和する方法について分析する。
我々は,NLPアルゴリズムによる悪質な偏見の根絶に向けた今後の研究について論じる。
論文 参考訳(メタデータ) (2022-03-06T18:12:30Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Detecting Emergent Intersectional Biases: Contextualized Word Embeddings
Contain a Distribution of Human-like Biases [10.713568409205077]
最先端のニューラルネットワークモデルは、単語が現れるコンテキストに依存する動的単語埋め込みを生成する。
本稿では、ニューラルネットワークモデルにおける全体的なバイアスの大きさを要約できる、コンテキスト適応型埋め込みアソシエーションテスト(CEAT)を紹介する。
静的な単語埋め込みから交差点バイアスと緊急交差点バイアスを自動的に識別する2つの方法,IBD (Intersectional Bias Detection) とEmergent Intersectional Bias Detection (EIBD) を開発した。
論文 参考訳(メタデータ) (2020-06-06T19:49:50Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z) - Interventions for Ranking in the Presence of Implicit Bias [34.23230188778088]
帰属バイアス(英語: Implicit bias)とは、特定の社会的グループのメンバーに対する特定の性質(またはその欠如)の無意識の帰属である。
ルーニールール(英: Rooney Rule)は、サブセット選択問題の特定のケースにおける結果の有用性を改善するための制約である。
我々は、単純で解釈可能な制約の族を示し、それらが暗黙のバイアスを最適に軽減できることを示す。
論文 参考訳(メタデータ) (2020-01-23T19:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。