論文の概要: The Initial Screening Order Problem
- arxiv url: http://arxiv.org/abs/2307.15398v2
- Date: Wed, 24 Jan 2024 11:33:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 17:42:53.494020
- Title: The Initial Screening Order Problem
- Title(参考訳): 初期スクリーニング順序問題
- Authors: Jose M. Alvarez and Antonio Mastropietro and Salvatore Ruggieri
- Abstract要約: 本研究は,採用や学術的受験などの候補検診プロセスにおける初期検診順序(ISO)の役割について検討する。
我々は2つの問題定式化を定義する: best-k$, where the screener choose the best candidate, good-k$, where the screener choose the first $k$ good-enough candidate。
分析の結果, グループレベルのフェアネスにもかかわらず, 人型スクリーニングの下のISOは個人のフェアネスを妨げていることが明らかとなった。
- 参考スコア(独自算出の注目度): 22.596961524387233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the role of the initial screening order (ISO) in candidate
screening processes, such as hiring and academic admissions. ISO refers to the
order in which the screener sorts the candidate pool before the evaluation. It
has been largely overlooked in the literature, despite its potential impact on
the optimality and fairness of the chosen set, especially under a human
screener. We define two problem formulations: best-$k$, where the screener
chooses the $k$ best candidates, and good-$k$, where the screener chooses the
first $k$ good-enough candidates. To study the impact of ISO, we introduce a
human-like screener and compare to its algorithmic counterpart. The human-like
screener is conceived to be inconsistent over time due to fatigue. Our analysis
shows that the ISO under a human-like screener hinders individual fairness
despite meeting group level fairness. This is due to the position bias, where a
candidate's evaluation is affected by its position within ISO. We report
extensive simulated experiments exploring the parameters of the problem
formulations both for algorithmic and human-like screeners. This work is
motivated by a real world candidate screening problem studied in collaboration
with a large European company.
- Abstract(参考訳): 本稿では,採用や学業入試等の候補者スクリーニングプロセスにおける初期スクリーニング命令(iso)の役割について検討する。
ISOは、審査者が評価の前に候補プールをソートする順序を指す。
文学では、選択されたセットの最適性と公正性、特にヒトスクリーニングの下での潜在的影響にもかかわらず、ほとんど見過ごされている。
我々は2つの問題定式化を定義する: best-k$, the screener choose the $k$ best candidate, and good-k$, where the screener choose the first $k$ good-enough candidate。
ISO の影響を調べるため,人間ライクなスクリーニングを導入し,アルゴリズムとの比較を行った。
人間のようなスクリーンは、疲労のために時間とともに一貫性がないと考えられている。
分析の結果, グループレベルのフェアネスにもかかわらず, 人型スクリーニングの下のISOは個人のフェアネスを妨げることがわかった。
これは、候補の評価がISO内の位置によって影響を受ける位置バイアスによるものである。
本報告では,問題定式化のパラメータを探索するシミュレーション実験について報告する。
この研究は、ヨーロッパの大企業と共同で研究されている現実世界の候補スクリーニング問題に動機づけられている。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Ranking a Set of Objects using Heterogeneous Workers: QUITE an Easy
Problem [54.90613714264689]
我々は、不平等労働者の群れによって提供されるノイズの多いペア比較の集合から始まる、$N$オブジェクトのランク付けの問題に焦点をあてる。
本研究では,作業者の信頼性とオブジェクトの品質を共同で推定する非適応的ランキングアルゴリズムQUITEを提案する。
論文 参考訳(メタデータ) (2023-10-03T12:42:13Z) - Fair Ranking under Disparate Uncertainty [28.826808256840703]
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
EORは、異なる不確実性が存在する場合でも、関連する選択肢の中でグループワイズフェア宝くじに対応している。
比例ルーニー規則制約のような肯定的な行動介入とは対照的に、EORは不利な群の指定を必要としない。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Preference Ranking Optimization for Human Alignment [90.6952059194946]
大規模言語モデル(LLM)は、しばしば誤解を招くコンテンツを含み、それらを人間の価値と整合させる必要性を強調している。
人間のフィードバックからの強化学習(RLHF)が、このアライメントを達成するために採用されている。
我々は、人間のアライメントのための微調整LDMのための効率的なSFTアルゴリズムとして、優先度ランク付け最適化(PRO)を提案する。
論文 参考訳(メタデータ) (2023-06-30T09:07:37Z) - Proxy-based Zero-Shot Entity Linking by Effective Candidate Retrieval [3.1498833540989413]
本稿では, 逆正則化器とプロキシベースのメトリック学習損失のペアリングが, 候補探索段階における強負サンプリングの効率的な代替手段となることを示す。
特に、リコール@1メートル法で競合性能を示すため、高価な候補ランキングのステップを除外するオプションを提供する。
論文 参考訳(メタデータ) (2023-01-30T22:43:21Z) - Individually Fair Learning with One-Sided Feedback [15.713330010191092]
我々は,学習者が正に予測されたインスタンスに対してのみ真のラベルを観察できる,一方的なフィードバックを伴うオンライン学習問題を考察する。
各ラウンドで$k$インスタンスが到着し、学習者が配置したランダム化ポリシーに従って分類結果を受け取る。
そこで我々は,一方的なフィードバックによるオンライン学習の問題から,文脈的半帯域問題に対する公平性違反を報告したパネルを構築。
論文 参考訳(メタデータ) (2022-06-09T12:59:03Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - UniCon: Unified Context Network for Robust Active Speaker Detection [111.90529347692723]
我々は、堅牢なアクティブ話者検出(ASD)のための新しい効率的なフレームワークUnified Context Network(UniCon)を導入する。
私たちのソリューションは、複数の種類のコンテキスト情報を共同でモデリングすることに焦点を当てた、新しく統合されたフレームワークです。
異なる設定下で、いくつかの挑戦的なASDベンチマークで徹底的なアブレーション研究が実施されている。
論文 参考訳(メタデータ) (2021-08-05T13:25:44Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。