論文の概要: Quota-based debiasing can decrease representation of already
underrepresented groups
- arxiv url: http://arxiv.org/abs/2006.07647v1
- Date: Sat, 13 Jun 2020 14:26:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:28:04.678733
- Title: Quota-based debiasing can decrease representation of already
underrepresented groups
- Title(参考訳): quotaベースのデバイアスは、すでに過小表現されたグループの表現を減らすことができる
- Authors: Ivan Smirnov, Florian Lemmerich, Markus Strohmaier
- Abstract要約: 1つの属性に基づくクォータに基づくデバイアスは、すでに表現されていないグループの表現を悪化させ、選択の全体的公正性を低下させる可能性があることを示す。
以上の結果から,不平等の根本原因の排除により多くの努力が必要であることが示唆された。
- 参考スコア(独自算出の注目度): 5.1135133995376085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many important decisions in societies such as school admissions, hiring, or
elections are based on the selection of top-ranking individuals from a larger
pool of candidates. This process is often subject to biases, which typically
manifest as an under-representation of certain groups among the selected or
accepted individuals. The most common approach to this issue is debiasing, for
example via the introduction of quotas that ensure proportional representation
of groups with respect to a certain, often binary attribute. Cases include
quotas for women on corporate boards or ethnic quotas in elections. This,
however, has the potential to induce changes in representation with respect to
other attributes. For the case of two correlated binary attributes we show that
quota-based debiasing based on a single attribute can worsen the representation
of already underrepresented groups and decrease overall fairness of selection.
We use several data sets from a broad range of domains from recidivism risk
assessments to scientific citations to assess this effect in real-world
settings. Our results demonstrate the importance of including all relevant
attributes in debiasing procedures and that more efforts need to be put into
eliminating the root causes of inequalities as purely numerical solutions such
as quota-based debiasing might lead to unintended consequences.
- Abstract(参考訳): 学校入学、雇用、選挙などの社会における重要な決定の多くは、候補者の大きなプールから上位の個人を選ぶことに基づいている。
このプロセスは、しばしばバイアスを受けており、通常、選択されたまたは受け入れられた個人の中の特定のグループの下層表現として表される。
この問題に対する最も一般的なアプローチは、例えばある、しばしば二項属性に対する群の比例表現を保証するクォータの導入による偏りである。
裁判には、選挙における法人委員会での女性の割当や、民族的割当が含まれる。
しかし、これは他の属性に対する表現の変化を誘発する可能性がある。
2つの相関したバイナリ属性の場合、単一の属性に基づくクォータベースのデバイアスは、既に表現されていない群の表現を悪化させ、選択の全体的公正性を低下させる。
我々は,レシディズムリスクアセスメントから科学的引用まで,様々な分野のデータセットを用いて,この効果を実世界環境において評価する。
以上の結果から,不等式を根源とする不等式を解消するためには,すべての関連属性をデバイアス手順に含めることの重要性が示され,クオータに基づくデバイアスのような純粋数値解が意図しない結果をもたらす可能性がある。
関連論文リスト
- The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - JobFair: A Framework for Benchmarking Gender Hiring Bias in Large Language Models [12.12628747941818]
本稿では,Large Language Models (LLMs) における階層的ジェンダー採用バイアスのベンチマークを行うための新しいフレームワークを提案する。
我々は、労働経済学、法原則、現在のバイアスベンチマークの批判に根ざした新しい構成を導入する。
我々は、現在最先端の10のLCMにおける性別採用バイアスを分析する。
論文 参考訳(メタデータ) (2024-06-17T09:15:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - When mitigating bias is unfair: multiplicity and arbitrariness in algorithmic group fairness [8.367620276482056]
本稿では,5次元によるバイアス緩和を評価するFRAME(FaiRness Arbitrariness and Multiplicity Evaluation)フレームワークを紹介する。
FRAMEをキーデータセット全体にわたる様々なバイアス緩和アプローチに適用することにより、デバイアス手法の挙動に顕著な違いを示すことができる。
これらの知見は、現在の公平性基準の限界と、偏見過程における固有の仲裁性を強調している。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - Selection in the Presence of Implicit Bias: The Advantage of
Intersectional Constraints [21.230595548980574]
雇用、昇進、大学入学などの選抜過程において、社会的に安定な属性に対する暗黙の偏見は、永続的な不平等を生み出すことが知られている。
交叉の場合、上記の非断面積制約は、暗黙のバイアスがない場合に達成可能な全ユーティリティの一部しか回復できないことを示す。
論文 参考訳(メタデータ) (2022-02-03T16:21:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z) - Interventions for Ranking in the Presence of Implicit Bias [34.23230188778088]
帰属バイアス(英語: Implicit bias)とは、特定の社会的グループのメンバーに対する特定の性質(またはその欠如)の無意識の帰属である。
ルーニールール(英: Rooney Rule)は、サブセット選択問題の特定のケースにおける結果の有用性を改善するための制約である。
我々は、単純で解釈可能な制約の族を示し、それらが暗黙のバイアスを最適に軽減できることを示す。
論文 参考訳(メタデータ) (2020-01-23T19:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。