論文の概要: Why Fair Automated Hiring Systems Breach EU Non-Discrimination Law
- arxiv url: http://arxiv.org/abs/2311.03900v1
- Date: Tue, 7 Nov 2023 11:31:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 15:46:20.788375
- Title: Why Fair Automated Hiring Systems Breach EU Non-Discrimination Law
- Title(参考訳): 公正な雇用自動化がEU非差別法を破る理由
- Authors: Robert Lee Poe
- Abstract要約: 機械学習に基づく自動雇用システムを利用する雇用選択プロセスは、ますます一般的になりつつある。
アルゴリズムの公平性とアルゴリズムの非差別性は同じではない。
この記事では、このような雇用制度がEU非差別法に準拠しているかどうかという2つの対立について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Employment selection processes that use automated hiring systems based on
machine learning are becoming increasingly commonplace. Meanwhile, concerns
about algorithmic direct and indirect discrimination that result from such
systems are front-and-center, and the technical solutions provided by the
research community often systematically deviate from the principle of equal
treatment to combat disparate or adverse impacts on groups based on protected
attributes. Those technical solutions are now being used in commercially
available automated hiring systems, potentially engaging in real-world
discrimination. Algorithmic fairness and algorithmic non-discrimination are not
the same. This article examines a conflict between the two: whether such hiring
systems are compliant with EU non-discrimination law.
- Abstract(参考訳): 機械学習に基づく自動雇用システムを利用する雇用選択プロセスは、ますます一般的になりつつある。
一方、このようなシステムから生じるアルゴリズム的直接的および間接的差別に関する懸念は、前もって中心であり、研究コミュニティが提供する技術的解決策はしばしば、保護された属性に基づく集団に対する異質な影響と戦うために、平等な治療の原則から体系的に逸脱する。
これらの技術的ソリューションは現在、商用の自動化雇用システムで使用されており、現実世界の差別にかかわる可能性がある。
アルゴリズム的公平性とアルゴリズム的非差別は同じではない。
この記事では、これら2つの雇用制度がeu非差別法に準拠しているかどうかについて検討する。
関連論文リスト
- Fairness and Bias in Algorithmic Hiring [46.4746098545057]
この調査は、システム、バイアス、尺度、緩和戦略、データセット、およびアルゴリズム雇用と公正性の法的側面のバランスよく統合されたカバレッジを持つ実践者や研究者を対象としている。
私たちの仕事は、現在の機会と制限を強調し、すべての利害関係者に対する共有メリットを保証するために、将来の作業に対する推奨を提供することによって、この技術のコンテキスト化された理解とガバナンスを支援します。
論文 参考訳(メタデータ) (2023-09-25T08:04:18Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Discrimination in machine learning algorithms [0.0]
機械学習アルゴリズムは、例えば信用スコアリングアルゴリズムがローンを拒否するため、個人に直接影響を及ぼす可能性のあるビジネス上の決定に日常的に使用される。
そして、倫理的(かつ法的)の観点から、これらのアルゴリズムが(性や人種のような)センシティブな属性に基づいて識別しないことを保証する。
論文 参考訳(メタデータ) (2022-06-30T21:35:42Z) - Tackling Algorithmic Disability Discrimination in the Hiring Process: An
Ethical, Legal and Technical Analysis [2.294014185517203]
我々は、障害者差別に関連して、AIによる雇用によって引き起こされる懸念と機会について論じる。
私たちはいくつかの出発点を確立し、倫理主義者、議員、支持者、そしてAI実践者のためのロードマップを設計します。
論文 参考訳(メタデータ) (2022-06-13T13:32:37Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。