論文の概要: The Initial Screening Order Problem
- arxiv url: http://arxiv.org/abs/2307.15398v3
- Date: Wed, 24 Apr 2024 14:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-27 00:07:23.883319
- Title: The Initial Screening Order Problem
- Title(参考訳): 初期スクリーニング順序問題
- Authors: Jose M. Alvarez, Antonio Mastropietro, Salvatore Ruggieri,
- Abstract要約: 本研究は,従業員採用や大学入学など,候補検診プロセスにおける初期検診命令(ISO)の役割について検討する。
ISOは、スクリーニング者が候補プールを評価する順序を指す。
文学では、選択されたセットの最適性と公正性、特にヒトスクリーニングの下での潜在的影響にもかかわらず、ほとんど見過ごされている。
- 参考スコア(独自算出の注目度): 20.105850916041952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the role of the initial screening order (ISO) in candidate screening processes, such as employee hiring and academic admissions. The ISO refers to the order in which the screener evaluates the candidate pool. It has been largely overlooked in the literature, despite its potential impact on the optimality and fairness of the chosen set, especially under a human screener. We define two problem formulations: the best-$k$, where the screener selects the $k$ best candidates, and the good-$k$, where the screener selects the $k$ first good-enough candidates. To study the impact of the ISO, we introduce a human-like screener and compare it to its algorithmic counterpart. The human-like screener is conceived to be inconsistent over time due to fatigue. Our analysis shows that the ISO, in particular, under a human-like screener hinders individual fairness despite meeting group level fairness. This is due to the position bias, where a candidate's evaluation is affected by its position within the ISO. We report extensive simulated experiments exploring the parameters of the best-$k$ and good-$k$ problem formulations both for the algorithmic and human-like screeners. This work is motivated by a real world candidate screening problem studied in collaboration with a large European company.
- Abstract(参考訳): 本研究は,従業員採用や大学入学など,候補検診プロセスにおける初期検診命令(ISO)の役割について検討する。
ISOは、スクリーニング者が候補プールを評価する順序を指す。
文学では、選択されたセットの最適性と公正性、特にヒトスクリーニングの下での潜在的影響にもかかわらず、ほとんど見過ごされている。
問題の定式化は、$k$、$k$、$k$、$k$という2つを定義します。
ISOの影響を調べるため、人間のようなスクリーニングを導入し、アルゴリズムと比較する。
人型スクリーニング装置は、疲労により時間の経過とともに不整合であると考えられる。
分析の結果、ISOは、特に人間のようなスクリーニングの下では、ミーティンググループレベルの公正さにもかかわらず、個人の公正さを妨げていることがわかった。
これは、候補の評価がISO内の位置によって影響を受ける位置バイアスによるものである。
我々は,アルゴリズムと人型スクリーニングの両方において,ベスト$k$とグッド$k$の問題定式化のパラメータを探索する広範囲なシミュレーション実験を報告する。
この研究は、ヨーロッパの大企業と共同で研究されている実世界の候補者スクリーニング問題によって動機付けられている。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Fair Ranking under Disparate Uncertainty [28.826808256840703]
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
EORは、異なる不確実性が存在する場合でも、関連する選択肢の中でグループワイズフェア宝くじに対応している。
比例ルーニー規則制約のような肯定的な行動介入とは対照的に、EORは不利な群の指定を必要としない。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Preference Ranking Optimization for Human Alignment [90.6952059194946]
大規模言語モデル(LLM)は、しばしば誤解を招くコンテンツを含み、それらを人間の価値と整合させる必要性を強調している。
人間のフィードバックからの強化学習(RLHF)が、このアライメントを達成するために採用されている。
我々は、人間のアライメントのための微調整LDMのための効率的なSFTアルゴリズムとして、優先度ランク付け最適化(PRO)を提案する。
論文 参考訳(メタデータ) (2023-06-30T09:07:37Z) - Proxy-based Zero-Shot Entity Linking by Effective Candidate Retrieval [3.1498833540989413]
本稿では, 逆正則化器とプロキシベースのメトリック学習損失のペアリングが, 候補探索段階における強負サンプリングの効率的な代替手段となることを示す。
特に、リコール@1メートル法で競合性能を示すため、高価な候補ランキングのステップを除外するオプションを提供する。
論文 参考訳(メタデータ) (2023-01-30T22:43:21Z) - OIMNet++: Prototypical Normalization and Localization-aware Learning for
Person Search [34.460973847554364]
我々は,人物検索,すなわち,生のシーン画像から人物をローカライズし,再同定するタスクに対処する。
近年のアプローチは、人探索の先駆的な研究であるOIMNetに基づいて構築され、共同人物表現を学習し、検出と人の再識別の両方を行う。
ProtoNormと呼ばれる新しい正規化レイヤを導入し、人身認証の長期分布を考慮しつつ、歩行者の提案から特徴を校正する。
論文 参考訳(メタデータ) (2022-07-21T06:34:03Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - UniCon: Unified Context Network for Robust Active Speaker Detection [111.90529347692723]
我々は、堅牢なアクティブ話者検出(ASD)のための新しい効率的なフレームワークUnified Context Network(UniCon)を導入する。
私たちのソリューションは、複数の種類のコンテキスト情報を共同でモデリングすることに焦点を当てた、新しく統合されたフレームワークです。
異なる設定下で、いくつかの挑戦的なASDベンチマークで徹底的なアブレーション研究が実施されている。
論文 参考訳(メタデータ) (2021-08-05T13:25:44Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。