論文の概要: Tackling Algorithmic Disability Discrimination in the Hiring Process: An
Ethical, Legal and Technical Analysis
- arxiv url: http://arxiv.org/abs/2206.06149v1
- Date: Mon, 13 Jun 2022 13:32:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 17:44:00.443597
- Title: Tackling Algorithmic Disability Discrimination in the Hiring Process: An
Ethical, Legal and Technical Analysis
- Title(参考訳): 雇用プロセスにおけるアルゴリズム的障害識別の取り組み--倫理的、法的、技術的分析
- Authors: Maarten Buyl, Christina Cociancig, Cristina Frattone, Nele Roekens
- Abstract要約: 我々は、障害者差別に関連して、AIによる雇用によって引き起こされる懸念と機会について論じる。
私たちはいくつかの出発点を確立し、倫理主義者、議員、支持者、そしてAI実践者のためのロードマップを設計します。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Tackling algorithmic discrimination against persons with disabilities (PWDs)
demands a distinctive approach that is fundamentally different to that applied
to other protected characteristics, due to particular ethical, legal, and
technical challenges. We address these challenges specifically in the context
of artificial intelligence (AI) systems used in hiring processes (or automated
hiring systems, AHSs), in which automated assessment procedures are subject to
unique ethical and legal considerations and have an undeniable adverse impact
on PWDs. In this paper, we discuss concerns and opportunities raised by
AI-driven hiring in relation to disability discrimination. Ultimately, we aim
to encourage further research into this topic. Hence, we establish some
starting points and design a roadmap for ethicists, lawmakers, advocates as
well as AI practitioners alike.
- Abstract(参考訳): 障害のある人に対するアルゴリズム的差別(PWD)に取り組むには、特に倫理的、法的、技術的課題のために、他の保護された特徴に適用されるものと根本的に異なるアプローチを要求される。
これらの課題は、雇用プロセス(または自動雇用システム、AHS)で使用される人工知能(AI)システムにおいて特に解決され、自動化された評価手順は、独自の倫理的および法的考慮の対象となり、PWDに不確実な悪影響を及ぼす。
本稿では,障害の識別に関して,aiを活用した雇用が生み出す懸念と機会について述べる。
最終的には、このトピックに関するさらなる研究を奨励するつもりです。
したがって、私たちはいくつかの出発点を確立し、倫理主義者、議員、支持者、そしてAI実践者のためのロードマップを設計します。
関連論文リスト
- Why Fair Automated Hiring Systems Breach EU Non-Discrimination Law [0.0]
機械学習に基づく自動雇用システムを利用する雇用選択プロセスは、ますます一般的になりつつある。
アルゴリズムの公平性とアルゴリズムの非差別性は同じではない。
この記事では、このような雇用制度がEU非差別法に準拠しているかどうかという2つの対立について検討する。
論文 参考訳(メタデータ) (2023-11-07T11:31:00Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Queering the ethics of AI [0.6993026261767287]
この章は、AIが差別を永続させる可能性をめぐる倫理的懸念を強調している。
この章は、しばしば非差別法を支える平等の概念に対する批判的な検証が必要であると主張している。
論文 参考訳(メタデータ) (2023-08-25T17:26:05Z) - Ethics in conversation: Building an ethics assurance case for autonomous
AI-enabled voice agents in healthcare [1.8964739087256175]
原則に基づく倫理保証議論パターンは、AI倫理のランドスケープにおける1つの提案である。
本稿では,AIベースの遠隔医療システムであるDoraの利用に対して,この倫理保証フレームワークを適用した事例研究の中間的結果を示す。
論文 参考訳(メタデータ) (2023-05-23T16:04:59Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - AI & Racial Equity: Understanding Sentiment Analysis Artificial
Intelligence, Data Security, and Systemic Theory in Criminal Justice Systems [0.0]
人種的体系的不正を悪化または減少させる人工知能の様々な形態が研究されている。
これは、歴史的体系的パターン、暗黙の偏見、既存のアルゴリズム的リスク、そして自然言語処理に基づくAI(リスク評価ツールなど)が人種的に異なる結果をもたらすという法的意味を通じて主張されている。
人種的に不正な結果や慣行から逸脱するためには、内部の機関や企業がアルゴリズム、プライバシーおよびセキュリティリスクをどのように活用するかを規制し、規制するために、より訴訟的な政策が必要であると結論付けている。
論文 参考訳(メタデータ) (2022-01-03T19:42:08Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。