論文の概要: Interventions for Ranking in the Presence of Implicit Bias
- arxiv url: http://arxiv.org/abs/2001.08767v1
- Date: Thu, 23 Jan 2020 19:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 12:55:05.881692
- Title: Interventions for Ranking in the Presence of Implicit Bias
- Title(参考訳): 暗黙的バイアスの存在下でのランキングへの介入
- Authors: L. Elisa Celis and Anay Mehrotra and Nisheeth K. Vishnoi
- Abstract要約: 帰属バイアス(英語: Implicit bias)とは、特定の社会的グループのメンバーに対する特定の性質(またはその欠如)の無意識の帰属である。
ルーニールール(英: Rooney Rule)は、サブセット選択問題の特定のケースにおける結果の有用性を改善するための制約である。
我々は、単純で解釈可能な制約の族を示し、それらが暗黙のバイアスを最適に軽減できることを示す。
- 参考スコア(独自算出の注目度): 34.23230188778088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit bias is the unconscious attribution of particular qualities (or lack
thereof) to a member from a particular social group (e.g., defined by gender or
race). Studies on implicit bias have shown that these unconscious stereotypes
can have adverse outcomes in various social contexts, such as job screening,
teaching, or policing. Recently, (Kleinberg and Raghavan, 2018) considered a
mathematical model for implicit bias and showed the effectiveness of the Rooney
Rule as a constraint to improve the utility of the outcome for certain cases of
the subset selection problem. Here we study the problem of designing
interventions for the generalization of subset selection -- ranking -- that
requires to output an ordered set and is a central primitive in various social
and computational contexts. We present a family of simple and interpretable
constraints and show that they can optimally mitigate implicit bias for a
generalization of the model studied in (Kleinberg and Raghavan, 2018).
Subsequently, we prove that under natural distributional assumptions on the
utilities of items, simple, Rooney Rule-like, constraints can also surprisingly
recover almost all the utility lost due to implicit biases. Finally, we augment
our theoretical results with empirical findings on real-world distributions
from the IIT-JEE (2009) dataset and the Semantic Scholar Research corpus.
- Abstract(参考訳): 暗黙の偏見とは、特定の社会集団(例えば、性別や人種によって定義される)のメンバーに対する特定の性質(またはその欠如)の無意識的な帰属である。
暗黙のバイアスの研究は、これらの無意識のステレオタイプが、仕事のスクリーニング、教育、警察など、様々な社会的文脈で有害な結果をもたらすことを示した。
最近 (Kleinberg and Raghavan, 2018) は、暗黙バイアスの数学的モデルを検討し、ルーニー規則の有効性を、部分集合選択問題のある場合における結果の有用性を改善するための制約として示した。
ここでは、順序集合を出力し、様々な社会的・計算的文脈において中心となるプリミティブである部分選択(ランキング)の一般化のための介入を設計する問題を考察する。
単純かつ解釈可能な制約の族を示し、研究されたモデルの一般化のために暗黙バイアスを最適に緩和できることを示す(Kleinberg and Raghavan, 2018)。
その後、単純でルーニー規則のようなアイテムの効用に関する自然な分布的仮定の下で、制約は暗黙のバイアスによって失われたほとんどすべてのユーティリティを驚くほど回復することができることを証明します。
最後に,IIT-JEE(2009)データセットとSemantic Scholar Research corpusから得られた実世界の分布に関する実証的な知見を用いて,理論結果を拡張した。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - A Principled Approach for a New Bias Measure [7.352247786388098]
偏差値の全範囲で明確かつ簡単な解釈を行う最初のバイアス尺度であるUniform Bias (UB) の定義を提案する。
この結果は,9つの公開データセットを用いて実験的に検証され,理論的に解析され,新たな知見が得られた。
当社のアプローチに基づいて、政策立案者にとって有用なバイアス緩和モデルも設計しています。
論文 参考訳(メタデータ) (2024-05-20T18:14:33Z) - Causality and Independence Enhancement for Biased Node Classification [56.38828085943763]
各種グラフニューラルネットワーク(GNN)に適用可能な新しい因果性・独立性向上(CIE)フレームワークを提案する。
提案手法は,ノード表現レベルでの因果的特徴と突発的特徴を推定し,突発的相関の影響を緩和する。
我々のアプローチCIEは、GNNの性能を大幅に向上するだけでなく、最先端の debiased ノード分類法よりも優れています。
論文 参考訳(メタデータ) (2023-10-14T13:56:24Z) - Race Bias Analysis of Bona Fide Errors in face anti-spoofing [0.0]
本稿では,3つの重要な特徴を持つ反スプーフに面した人種偏見の系統的研究について述べる。
焦点は、重大な倫理的および法的問題があるボナフェイドエラーの潜在的なバイアスを分析することにある。
本稿では,VQ-VAEに基づくフェース・アンチ・スプーフィング・アルゴリズムのバイアス解析プロセスについて述べる。
論文 参考訳(メタデータ) (2022-10-11T11:49:24Z) - Ensembling over Classifiers: a Bias-Variance Perspective [13.006468721874372]
Pfau (2013) による偏差分解の拡張の上に構築し, 分類器のアンサンブルの挙動に関する重要な知見を得る。
条件付き推定は必然的に既約誤差を生じさせることを示す。
経験的に、標準的なアンサンブルはバイアスを減少させ、この予期せぬ減少のために、分類器のアンサンブルがうまく機能するかもしれないという仮説を立てる。
論文 参考訳(メタデータ) (2022-06-21T17:46:35Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Supercharging Imbalanced Data Learning With Energy-based Contrastive
Representation Transfer [72.5190560787569]
コンピュータビジョンにおいて、長い尾のデータセットからの学習は、特に自然画像データセットの繰り返しのテーマである。
本稿では,データ生成機構がラベル条件と特徴分布の間で不変であるメタ分散シナリオを提案する。
これにより、因果データインフレーションの手順を利用してマイノリティクラスの表現を拡大できる。
論文 参考訳(メタデータ) (2020-11-25T00:13:11Z) - Mitigating Gender Bias Amplification in Distribution by Posterior
Regularization [75.3529537096899]
本稿では,男女差の増幅問題について,分布の観点から検討する。
後続正則化に基づくバイアス緩和手法を提案する。
私たちの研究はバイアス増幅の理解に光を当てている。
論文 参考訳(メタデータ) (2020-05-13T11:07:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。