論文の概要: The Initial Screening Order Problem
- arxiv url: http://arxiv.org/abs/2307.15398v1
- Date: Fri, 28 Jul 2023 08:48:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 13:25:18.223341
- Title: The Initial Screening Order Problem
- Title(参考訳): 初期スクリーニング順序問題
- Authors: Jose M. Alvarez and Salvatore Ruggieri
- Abstract要約: 本稿では,初期スクリーニング順序問題,すなわち候補検定における重要なステップについて述べる。
最初のスクリーニング順序は、ヒトのようなスクリーニング者がスクリーニングの前に候補プールを配置する方法を表す。
我々は、不均衡な候補プールの下で、人間のようなスクリーニングが意思決定を妨げる不公平な努力に悩まされることを証明した。
- 参考スコア(独自算出の注目度): 28.995417890041086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present the initial screening order problem, a crucial step
within candidate screening. It involves a human-like screener with an objective
to find the first k suitable candidates rather than the best k suitable
candidates in a candidate pool given an initial screening order. The initial
screening order represents the way in which the human-like screener arranges
the candidate pool prior to screening. The choice of initial screening order
has considerable effects on the selected set of k candidates. We prove that
under an unbalanced candidate pool (e.g., having more male than female
candidates), the human-like screener can suffer from uneven efforts that hinder
its decision-making over the protected, under-represented group relative to the
non-protected, over-represented group. Other fairness results are proven under
the human-like screener. This research is based on a collaboration with a large
company to better understand its hiring process for potential automation. Our
main contribution is the formalization of the initial screening order problem
which, we argue, opens the path for future extensions of the current works on
ranking algorithms, fairness, and automation for screening procedures.
- Abstract(参考訳): 本稿では, 候補スクリーニングにおける重要なステップである初期スクリーニング順序問題を提案する。
これは、最初のスクリーニング順序が与えられた候補プールの最も適した候補ではなく、最初のkに適した候補を見つける目的を持つ人間のようなスクリーニングである。
最初のスクリーニング順序は、ヒトのようなスクリーニング者がスクリーニングの前に候補プールを配置する方法を表す。
初期スクリーニング順序の選択は、選択されたk候補集合に大きな影響を与える。
我々は、不均衡な候補プール(例えば、女性よりも男性が多い)の下で、人間のようなスクリーニング者は、保護されていない、過剰に表現されたグループに対して、その決定を妨害する不公平な努力に苦しむことができることを証明した。
その他の公平性の結果は人間のようなスクリーンで証明される。
この研究は、自動化のための雇用プロセスをよりよく理解するために、大企業とのコラボレーションに基づいている。
我々の主な貢献は、初期スクリーニング順序問題の定式化であり、これは現在のランキングアルゴリズム、公正性、スクリーニング手順の自動化に関する現在の研究の今後の拡張の道を開くものであると主張する。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Ranking a Set of Objects using Heterogeneous Workers: QUITE an Easy
Problem [54.90613714264689]
我々は、不平等労働者の群れによって提供されるノイズの多いペア比較の集合から始まる、$N$オブジェクトのランク付けの問題に焦点をあてる。
本研究では,作業者の信頼性とオブジェクトの品質を共同で推定する非適応的ランキングアルゴリズムQUITEを提案する。
論文 参考訳(メタデータ) (2023-10-03T12:42:13Z) - Fair Ranking under Disparate Uncertainty [28.826808256840703]
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
EORは、異なる不確実性が存在する場合でも、関連する選択肢の中でグループワイズフェア宝くじに対応している。
比例ルーニー規則制約のような肯定的な行動介入とは対照的に、EORは不利な群の指定を必要としない。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Preference Ranking Optimization for Human Alignment [90.6952059194946]
大規模言語モデル(LLM)は、しばしば誤解を招くコンテンツを含み、それらを人間の価値と整合させる必要性を強調している。
人間のフィードバックからの強化学習(RLHF)が、このアライメントを達成するために採用されている。
我々は、人間のアライメントのための微調整LDMのための効率的なSFTアルゴリズムとして、優先度ランク付け最適化(PRO)を提案する。
論文 参考訳(メタデータ) (2023-06-30T09:07:37Z) - Proxy-based Zero-Shot Entity Linking by Effective Candidate Retrieval [3.1498833540989413]
本稿では, 逆正則化器とプロキシベースのメトリック学習損失のペアリングが, 候補探索段階における強負サンプリングの効率的な代替手段となることを示す。
特に、リコール@1メートル法で競合性能を示すため、高価な候補ランキングのステップを除外するオプションを提供する。
論文 参考訳(メタデータ) (2023-01-30T22:43:21Z) - Individually Fair Learning with One-Sided Feedback [15.713330010191092]
我々は,学習者が正に予測されたインスタンスに対してのみ真のラベルを観察できる,一方的なフィードバックを伴うオンライン学習問題を考察する。
各ラウンドで$k$インスタンスが到着し、学習者が配置したランダム化ポリシーに従って分類結果を受け取る。
そこで我々は,一方的なフィードバックによるオンライン学習の問題から,文脈的半帯域問題に対する公平性違反を報告したパネルを構築。
論文 参考訳(メタデータ) (2022-06-09T12:59:03Z) - Comparing Human and Machine Bias in Face Recognition [46.170389064229354]
我々はLFWとCelebAデータセットの改良版をリリースし、将来の研究者がアルゴリズムバイアスの測定値を得ることができるようにした。
また、これらの新しいデータを使って、顔認証と検証に関する一連の挑戦的な質問も開発しています。
検証作業において,コンピュータモデルと人的調査参加者の双方が有意に優れていたことが判明した。
論文 参考訳(メタデータ) (2021-10-15T22:26:20Z) - UniCon: Unified Context Network for Robust Active Speaker Detection [111.90529347692723]
我々は、堅牢なアクティブ話者検出(ASD)のための新しい効率的なフレームワークUnified Context Network(UniCon)を導入する。
私たちのソリューションは、複数の種類のコンテキスト情報を共同でモデリングすることに焦点を当てた、新しく統合されたフレームワークです。
異なる設定下で、いくつかの挑戦的なASDベンチマークで徹底的なアブレーション研究が実施されている。
論文 参考訳(メタデータ) (2021-08-05T13:25:44Z) - Intersectional Affirmative Action Policies for Top-k Candidates
Selection [3.4961413413444817]
本研究では,トップk候補を応募者のプールから選抜する問題について検討する。
我々は,一部の候補者が歴史的かつ現在の不利を経験している状況を考える。
そこで本研究では,OECD国における学力評価と学士号取得のデータセットを用いて,この問題を解き,解析し,評価する2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:27:18Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。