論文の概要: The Price of Diversity
- arxiv url: http://arxiv.org/abs/2107.03900v1
- Date: Sat, 3 Jul 2021 02:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-11 11:38:11.518739
- Title: The Price of Diversity
- Title(参考訳): 多様性の価格
- Authors: Hari Bandi and Dimitris Bertsimas
- Abstract要約: 性別、人種、民族に関する体系的な偏見は、しばしば無意識であり、個人間の選択を含むデータセットで一般的である。
最適反転結果ラベルと学習分類モデルに基づく新しい最適化手法を提案する。
本研究は, 仮釈放, 入場許可, 貸与決定からなる実世界の3つのデータセットのケーススタディである。
- 参考スコア(独自算出の注目度): 3.136861161060885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Systemic bias with respect to gender, race and ethnicity, often unconscious,
is prevalent in datasets involving choices among individuals. Consequently,
society has found it challenging to alleviate bias and achieve diversity in a
way that maintains meritocracy in such settings. We propose (a) a novel
optimization approach based on optimally flipping outcome labels and training
classification models simultaneously to discover changes to be made in the
selection process so as to achieve diversity without significantly affecting
meritocracy, and (b) a novel implementation tool employing optimal
classification trees to provide insights on which attributes of individuals
lead to flipping of their labels, and to help make changes in the current
selection processes in a manner understandable by human decision makers. We
present case studies on three real-world datasets consisting of parole,
admissions to the bar and lending decisions, and demonstrate that the price of
diversity is low and sometimes negative, that is we can modify our selection
processes in a way that enhances diversity without affecting meritocracy
significantly, and sometimes improving it.
- Abstract(参考訳): 性別、人種、民族に関する体系的な偏見は、しばしば無意識であり、個人の選択を含むデータセットでよく見られる。
その結果、社会は偏見を緩和し多様性を達成し、そのような環境下での長所性を維持することが困難であることが判明した。
We propose (a) a novel optimization approach based on optimally flipping outcome labels and training classification models simultaneously to discover changes to be made in the selection process so as to achieve diversity without significantly affecting meritocracy, and (b) a novel implementation tool employing optimal classification trees to provide insights on which attributes of individuals lead to flipping of their labels, and to help make changes in the current selection processes in a manner understandable by human decision makers.
本稿では,仮釈放,バーへの入場,貸付決定からなる3つの実世界のデータセットのケーススタディを行い,多様性の価格が低く,時にはマイナスであること,すなわち,能力主義に悪影響を及ぼすことなく多様性を高める方法で選択プロセスを変更することができること,およびそれを改善できることを実証する。
関連論文リスト
- Diversified Batch Selection for Training Acceleration [68.67164304377732]
オンラインバッチ選択として知られる一般的な研究ラインでは、トレーニングプロセス中の情報サブセットの選択について検討している。
バニラ参照モデルフリーメソッドは、独立してデータをサンプリング的にスコア付けし、選択する。
DivBS(Diversified Batch Selection)を提案する。
論文 参考訳(メタデータ) (2024-06-07T12:12:20Z) - A Preference-oriented Diversity Model Based on Mutual-information in Re-ranking for E-commerce Search [11.49911967350851]
本稿では,相互情報(PODM-MI)に基づく嗜好指向の多様性モデルを提案する。
PODM-MIは、再ランクプロセスにおける正確性と多様性の両方を考慮する。
我々は,PODM-MIをeコマース検索プラットフォームに導入することに成功している。
論文 参考訳(メタデータ) (2024-05-24T13:03:34Z) - MaxMin-RLHF: Towards Equitable Alignment of Large Language Models with
Diverse Human Preferences [101.57443597426374]
Reinforcement Learning from Human Feedback (RLHF) は、言語モデルと人間の嗜好を一致させる。
予測最大化アルゴリズムを用いて嗜好分布の混合を学習し、人間の嗜好をよりよく表現する。
従来のRLHFアルゴリズムよりも16%以上の勝利率向上を実現している。
論文 参考訳(メタデータ) (2024-02-14T03:56:27Z) - Improving Diversity of Demographic Representation in Large Language
Models via Collective-Critiques and Self-Voting [19.79214899011072]
本稿では,生成的大言語モデルにおける表現の多様性を形式化する。
評価データセットを提示し、人や文化軸に沿って生成された反応の多様性を測定する指標を提案する。
LLMは多様性の概念を理解し、その目標に対して自身の反応を推論し、批判することができる。
論文 参考訳(メタデータ) (2023-10-25T10:17:17Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Graph Exploration Matters: Improving both individual-level and
system-level diversity in WeChat Feed Recommender [21.0013026365164]
個人レベルの多様性とシステムレベルの多様性はどちらも産業レコメンデーターシステムにとって重要である。
WeChat AppのTop Storiesで、数億人のユーザが使用するシステムの実装とデプロイを行います。
論文 参考訳(メタデータ) (2023-05-29T19:25:32Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Fairness in Selection Problems with Strategic Candidates [9.4148805532663]
選択問題における戦略的側面が公平性に与える影響について検討する。
合理的な候補者の人口は、彼らの品質を高めるために努力レベルを選択することで競います。
我々は、異なるパラメータのレジームにおけるこのゲームの(一意)平衡を特徴づける。
論文 参考訳(メタデータ) (2022-05-24T17:03:32Z) - Discovering Diverse Nearly Optimal Policies withSuccessor Features [30.144946007098852]
強化学習では、多様なポリシーの集合が探索、移動、階層化、堅牢性に有用である。
本稿では,継承的特徴の空間において多種多様であるポリシーを発見する方法として,多元的継承政策を提案する。
論文 参考訳(メタデータ) (2021-06-01T17:56:13Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。