論文の概要: Hiring Fairly in the Age of Algorithms
- arxiv url: http://arxiv.org/abs/2004.07132v1
- Date: Wed, 15 Apr 2020 14:58:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 11:13:24.619783
- Title: Hiring Fairly in the Age of Algorithms
- Title(参考訳): アルゴリズム時代における公正な雇用
- Authors: Max Langenkamp, Allan Costa, Chris Cheung
- Abstract要約: 我々は、雇用者から一般大衆への透明性を高めることで、雇用アルゴリズムの負の影響を緩和できると主張している。
私たちの主な貢献は、自動化された雇用の透明性、アルゴリズムによる透明性レポートのためのフレームワークです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Widespread developments in automation have reduced the need for human input.
However, despite the increased power of machine learning, in many contexts
these programs make decisions that are problematic. Biases within data and
opaque models have amplified human prejudices, giving rise to such tools as
Amazon's (now defunct) experimental hiring algorithm, which was found to
consistently downgrade resumes when the word "women's" was added before an
activity. This article critically surveys the existing legal and technological
landscape surrounding algorithmic hiring. We argue that the negative impact of
hiring algorithms can be mitigated by greater transparency from the employers
to the public, which would enable civil advocate groups to hold employers
accountable, as well as allow the U.S. Department of Justice to litigate. Our
main contribution is a framework for automated hiring transparency, algorithmic
transparency reports, which employers using automated hiring software would be
required to publish by law. We also explain how existing regulations in
employment and trade secret law can be extended by the Equal Employment
Opportunity Commission and Congress to accommodate these reports.
- Abstract(参考訳): 自動化の広範な発展により、人間の入力の必要性は減った。
しかし、機械学習の力の増大にもかかわらず、多くの文脈において、これらのプログラムは問題となる決定を行う。
データと不透明なモデル内のバイアスは人間の偏見を増幅し、Amazon(現在は廃止)の実験的な雇用アルゴリズムのようなツールが出現した。
本稿では,アルゴリズム採用を取り巻く既存の法律・技術状況について批判的に調査する。
雇用アルゴリズムのネガティブな影響は、雇用者から公衆への透明性の向上によって軽減され、市民擁護団体が雇用者に対して責任を負うことができるようになり、またアメリカ合衆国司法省がライトゲートを許可する。
私たちの主な貢献は、自動化された雇用の透明性のためのフレームワーク、アルゴリズムによる透明性レポートです。
また、雇用秘密法における既存の規制を等雇用機会委員会及び議会によってどのように拡張し、これらの報告に対応するかについても説明する。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Reputational Algorithm Aversion [0.0]
本稿では,アルゴリズムに従う選択が人間の能力に関する情報を伝達するときに,アルゴリズムの逆転が生じることを示す。
労働者が自分のプライベート情報とアルゴリズムの信号に基づいて不確実な結果を予測するモデルを開発する。
論文 参考訳(メタデータ) (2024-02-23T16:28:55Z) - Fairness and Bias in Algorithmic Hiring: a Multidisciplinary Survey [43.463169774689646]
この調査は、システム、バイアス、尺度、緩和戦略、データセット、およびアルゴリズム雇用と公正性の法的側面のバランスよく統合されたカバレッジを持つ実践者や研究者を対象としている。
私たちの仕事は、現在の機会と制限を強調し、すべての利害関係者に対する共有メリットを保証するために、将来の作業に対する推奨を提供することによって、この技術のコンテキスト化された理解とガバナンスを支援します。
論文 参考訳(メタデータ) (2023-09-25T08:04:18Z) - National Origin Discrimination in Deep-learning-powered Automated Resume
Screening [3.251347385432286]
多くの企業や組織は、採用プロセスを支援するために、ある種のAI対応のオートマットツールを使い始めています。
AIシステムの根底にあるバイアスによって、候補者に対する不公平な扱いが懸念されている。
本研究では,近年の技術革新である深層学習手法について検討し,自動再開検診への応用に焦点をあてた。
論文 参考訳(メタデータ) (2023-07-13T01:35:29Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Does Fair Ranking Improve Minority Outcomes? Understanding the Interplay
of Human and Algorithmic Biases in Online Hiring [9.21721532941863]
我々は、雇用者の仕事状況や固有のバイアスなど、オンライン雇用プラットフォームにおける性別バイアスの源泉を分析した。
結果から, 公平なランキングアルゴリズムは, 少数民族の選抜率を向上するが, 求職状況や候補者のプロファイルに大きく依存していることが示唆された。
論文 参考訳(メタデータ) (2020-12-01T11:45:27Z) - "What We Can't Measure, We Can't Understand": Challenges to Demographic
Data Procurement in the Pursuit of Fairness [0.0]
アルゴリズムフェアネスの実践者は、実際にはバイアスを検出する必要があると感じている人口統計データにアクセスできないことが多い。
このジレンマは,アルゴリズムフェアネスに隣接する38人の実践者や専門家との半構造化インタビューを通じて検討した。
参加者は、人口統計データの可用性と利用状況が地上でどのように見えるか、複雑な絵を描いた。
論文 参考訳(メタデータ) (2020-10-30T21:06:41Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。