論文の概要: Fairness and Bias in Algorithmic Hiring: a Multidisciplinary Survey
- arxiv url: http://arxiv.org/abs/2309.13933v3
- Date: Tue, 24 Sep 2024 16:18:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 14:28:50.416070
- Title: Fairness and Bias in Algorithmic Hiring: a Multidisciplinary Survey
- Title(参考訳): アルゴリズム採用における公正性とバイアス--多分野調査
- Authors: Alessandro Fabris, Nina Baranowska, Matthew J. Dennis, David Graus, Philipp Hacker, Jorge Saldivar, Frederik Zuiderveen Borgesius, Asia J. Biega,
- Abstract要約: この調査は、システム、バイアス、尺度、緩和戦略、データセット、およびアルゴリズム雇用と公正性の法的側面のバランスよく統合されたカバレッジを持つ実践者や研究者を対象としている。
私たちの仕事は、現在の機会と制限を強調し、すべての利害関係者に対する共有メリットを保証するために、将来の作業に対する推奨を提供することによって、この技術のコンテキスト化された理解とガバナンスを支援します。
- 参考スコア(独自算出の注目度): 43.463169774689646
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Employers are adopting algorithmic hiring technology throughout the recruitment pipeline. Algorithmic fairness is especially applicable in this domain due to its high stakes and structural inequalities. Unfortunately, most work in this space provides partial treatment, often constrained by two competing narratives, optimistically focused on replacing biased recruiter decisions or pessimistically pointing to the automation of discrimination. Whether, and more importantly what types of, algorithmic hiring can be less biased and more beneficial to society than low-tech alternatives currently remains unanswered, to the detriment of trustworthiness. This multidisciplinary survey caters to practitioners and researchers with a balanced and integrated coverage of systems, biases, measures, mitigation strategies, datasets, and legal aspects of algorithmic hiring and fairness. Our work supports a contextualized understanding and governance of this technology by highlighting current opportunities and limitations, providing recommendations for future work to ensure shared benefits for all stakeholders.
- Abstract(参考訳): 雇用者は採用パイプライン全体を通してアルゴリズムによる雇用技術を採用しています。
アルゴリズム的公正性は、高い利害関係と構造的不等式のため、この領域で特に適用できる。
残念ながら、この分野のほとんどの研究は部分的な扱いを提供しており、しばしば2つの競合する物語によって制約される。
アルゴリズムによる雇用のバイアスが減り、社会に利益をもたらすかどうか、そしてさらに重要なことは、信頼感の低下に対して、現在のローテクな代替手段は未解決のままだ。
この多分野にわたる調査は、システム、バイアス、尺度、緩和戦略、データセット、およびアルゴリズム雇用と公正性の法的側面のバランスよく統合されたカバレッジを持つ実践者や研究者に向けられている。
私たちの仕事は、現在の機会と制限を強調し、すべての利害関係者に対する共有メリットを保証するために、将来の作業に対する推奨を提供することによって、この技術のコンテキスト化された理解とガバナンスを支援します。
関連論文リスト
- Why Fair Automated Hiring Systems Breach EU Non-Discrimination Law [0.0]
機械学習に基づく自動雇用システムを利用する雇用選択プロセスは、ますます一般的になりつつある。
アルゴリズムの公平性とアルゴリズムの非差別性は同じではない。
この記事では、このような雇用制度がEU非差別法に準拠しているかどうかという2つの対立について検討する。
論文 参考訳(メタデータ) (2023-11-07T11:31:00Z) - Approaches to the Algorithmic Allocation of Public Resources: A
Cross-disciplinary Review [0.0]
我々は,アルゴリズム割り当ての異なる分野に対するアプローチを理解するために,クロスディシプリナ文献レビューを行った。
最適化目標、テクニック、解釈可能性、柔軟性、バイアス、倫理的考慮、パフォーマンスのレンズから75の論文を分析した。
最適化手法は待ち時間を減らし、成功率を最大50%向上させる。
論文 参考訳(メタデータ) (2023-10-10T09:46:01Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Algorithmic Fairness in Business Analytics: Directions for Research and
Practice [24.309795052068388]
本稿では,アルゴリズムフェアネスの先見的,BAに着目したレビューを行う。
まず、バイアスの源泉と測定方法、およびバイアス緩和アルゴリズムに関する最先端の研究について概説する。
次に、ユーティリティ・フェアネスの関係について詳細な議論を行い、これらの2つの構成要素間のトレードオフの頻繁な仮定は、しばしば間違いまたは近視的であることを強調した。
論文 参考訳(メタデータ) (2022-07-22T10:21:38Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - A Framework for Fairness: A Systematic Review of Existing Fair AI
Solutions [4.594159253008448]
公正性の研究の大部分は、機械学習の実践者がアルゴリズムを設計しながらバイアスを監査するために使用できるツールの開発に費やされている。
実際には、これらの公平性ソリューションの応用例が欠如している。
このレビューでは、定義されたアルゴリズムバイアス問題と提案された公正解空間の詳細な概要について述べる。
論文 参考訳(メタデータ) (2021-12-10T17:51:20Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Public Bayesian Persuasion: Being Almost Optimal and Almost Persuasive [57.47546090379434]
i) 任意の状態空間, (ii) 任意の行動空間, (iii) 任意の送信者のユーティリティ関数を用いて, 一般の状況下での公衆の説得問題を考察する。
任意の公的な説得問題に対して準多項式時間ビクテリア近似アルゴリズムを提案し、特定の設定でQPTASを出力する。
論文 参考訳(メタデータ) (2020-02-12T18:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。