論文の概要: Fair Sequential Selection Using Supervised Learning Models
- arxiv url: http://arxiv.org/abs/2110.13986v1
- Date: Tue, 26 Oct 2021 19:45:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-29 12:55:02.839691
- Title: Fair Sequential Selection Using Supervised Learning Models
- Title(参考訳): 教師付き学習モデルを用いたフェアシーケンシャル選択
- Authors: Mohammad Mahdi Khalili, Xueru Zhang, Mahed Abroshan
- Abstract要約: 我々は、連続して到着した応募者が限られた数の位置/ジョブを申請する選択問題を考える。
一般の公正概念を満足する事前学習モデルであっても、選択の結果は特定の人口集団に偏っている可能性があることを示す。
本稿では、連続選択問題に適した「平等選択(ES)」という新たなフェアネス概念を導入し、ESフェアネス概念を満たすための後処理アプローチを提案する。
- 参考スコア(独自算出の注目度): 11.577534539649374
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider a selection problem where sequentially arrived applicants apply
for a limited number of positions/jobs. At each time step, a decision maker
accepts or rejects the given applicant using a pre-trained supervised learning
model until all the vacant positions are filled. In this paper, we discuss
whether the fairness notions (e.g., equal opportunity, statistical parity,
etc.) that are commonly used in classification problems are suitable for the
sequential selection problems. In particular, we show that even with a
pre-trained model that satisfies the common fairness notions, the selection
outcomes may still be biased against certain demographic groups. This
observation implies that the fairness notions used in classification problems
are not suitable for a selection problem where the applicants compete for a
limited number of positions. We introduce a new fairness notion, ``Equal
Selection (ES),'' suitable for sequential selection problems and propose a
post-processing approach to satisfy the ES fairness notion. We also consider a
setting where the applicants have privacy concerns, and the decision maker only
has access to the noisy version of sensitive attributes. In this setting, we
can show that the perfect ES fairness can still be attained under certain
conditions.
- Abstract(参考訳): 我々は、連続して到着した応募者が限られた数の位置/ジョブを申請する選択問題を考える。
各段階において、意思決定者は、すべての空き位置が満たされるまで、予め訓練された教師付き学習モデルを用いて、所定の申請を受理又は拒絶する。
本稿では,分類問題において一般的に用いられるフェアネス概念(等機会,統計パリティなど)が逐次選択問題に適しているかについて議論する。
特に,共通の公平性概念を満たす事前学習されたモデルであっても,選択結果が特定の集団群に対して偏りがあることを示す。
この観察は、分類問題で使われる公平性の概念は、応募者が限られた数を争う選択問題には適さないことを示している。
連続選択問題に適した「平等選択(ES)」という新しいフェアネス概念を導入し、ESフェアネス概念を満たすための後処理アプローチを提案する。
また,利用者がプライバシの懸念を抱くような設定も検討し,意思決定者は機密属性のノイズの多いバージョンのみにアクセスできるようにした。
この設定では、完全なESフェアネスが一定の条件下でも達成可能であることを示すことができる。
関連論文リスト
- Differentiating Choices via Commonality for Multiple-Choice Question Answering [54.04315943420376]
複数選択の質問応答は、正しい答えを選択するための貴重な手がかりを提供することができる。
既存のモデルでは、それぞれの選択を別々にランク付けし、他の選択によって提供されるコンテキストを見渡すことが多い。
本稿では,DCQAと呼ばれる共通性を識別・排除することで,選択を識別する新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-08-21T12:05:21Z) - Learning Fair Policies for Multi-stage Selection Problems from
Observational Data [4.282745020665833]
我々は、観測データから多段階選択問題に対する公正なポリシーを学習する問題を考察する。
この問題は、企業の雇用、ローン承認、または、選択された結果のみが観察されるような保釈決定など、いくつかの高い評価の領域で発生する。
本稿では,人口格差や平等機会など,様々な公平性制約で拡張可能な多段階フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-20T16:33:15Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - On Fair Selection in the Presence of Implicit and Differential Variance [22.897402186120434]
本研究では, 意思決定者が各候補の品質のノイズの多い推定値を受け取り, その差が候補群に依存するモデルについて検討する。
どちらの基準決定要因も、反対方向にも差別をもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-10T16:04:13Z) - Fair and Useful Cohort Selection [12.319543784920304]
Dwork と Ilvento は、fair-cohort-selection 問題と呼ばれるアーティピーパル問題を導入した。
与えられた大きさの候補のグループを選択するために、単一の公正分類器がそれ自身で構成される。
オフライン設定とオンライン設定の両方で、この問題に対して最適な(あるいはほぼ最適)時間アルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-04T14:06:08Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - On Fair Selection in the Presence of Implicit Variance [17.517529275692322]
我々は、暗黙のバイアスがなくても、異なるグループからの候補者の質の推定は、別の基本的な方法、すなわち、その分散によって異なるかもしれないと論じる。
本稿では,グループ非依存正規分布から抽出される真の潜伏品質を有する簡易モデルを提案する。
人口パーティメカニズムが常に選択ユーティリティを増大させる一方で、任意の$gamma$-ruleが弱くなることを示す。
論文 参考訳(メタデータ) (2020-06-24T13:08:31Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。