論文の概要: An\'alisis jur\'idico de la discriminaci\'on algor\'itmica en los
procesos de selecci\'on laboral
- arxiv url: http://arxiv.org/abs/2008.00371v1
- Date: Sun, 2 Aug 2020 00:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-07 08:43:02.982437
- Title: An\'alisis jur\'idico de la discriminaci\'on algor\'itmica en los
procesos de selecci\'on laboral
- Title(参考訳): セレチ・ド・セレチの労働問題における「人種的問題」の考察
- Authors: Andr\'es P\'aez, Natalia Ram\'irez-Bustamante
- Abstract要約: 米国における求職プロセスにおける機械学習の利用について説明する。
我々は、検出された人種的および性的偏見をいくつか提示する。
法的な観点からアルゴリズム的差別にどうアプローチすればよいかは定かではない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of machine learning systems in processing job applications has made
the process agile and efficient, but at the same time it has created problems
in terms of equality, reliability and transparency. In this paper we explain
some of the uses of ML in job selection processes in the United States, and we
present some the racial and sexual biases that have been detected. There are
both practical and legal obstacles that impede the detection and analysis of
these biases. It is also unclear how to approach algorithmic discrimination
from a legal point of view. A possible analytical tool is provided by the
American doctrine of Disparate Impact, but we show some of its limitations and
problems when adapted to other legal systems, such as Colombian law. To
conclude, we offer some desiderata that any legal analysis of algorithmic
discrimination should provide.
- Abstract(参考訳): ジョブアプリケーション処理における機械学習システムの使用により、プロセスはアジャイルで効率的になったが、同時に、平等、信頼性、透明性という面で問題を生み出した。
本稿では、アメリカ合衆国における求職プロセスにおけるMLの利用について説明するとともに、検出された人種的・性的偏見について述べる。
これらのバイアスの検出と分析を妨げる実用的および法的障害がある。
また、法的な観点からアルゴリズム的差別にどうアプローチするかも不明である。
分析ツールとして米国における異種衝突説が考えられるが、コロンビア法のような他の法体系に適応する際の制限や問題をいくつか示す。
結論として、アルゴリズムの差別に関する法的分析が提供すべきデシラタを提供する。
関連論文リスト
- Why Fair Automated Hiring Systems Breach EU Non-Discrimination Law [0.0]
機械学習に基づく自動雇用システムを利用する雇用選択プロセスは、ますます一般的になりつつある。
アルゴリズムの公平性とアルゴリズムの非差別性は同じではない。
この記事では、このような雇用制度がEU非差別法に準拠しているかどうかという2つの対立について検討する。
論文 参考訳(メタデータ) (2023-11-07T11:31:00Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - Fairness and Bias in Algorithmic Hiring [46.4746098545057]
この調査は、システム、バイアス、尺度、緩和戦略、データセット、およびアルゴリズム雇用と公正性の法的側面のバランスよく統合されたカバレッジを持つ実践者や研究者を対象としている。
私たちの仕事は、現在の機会と制限を強調し、すべての利害関係者に対する共有メリットを保証するために、将来の作業に対する推奨を提供することによって、この技術のコンテキスト化された理解とガバナンスを支援します。
論文 参考訳(メタデータ) (2023-09-25T08:04:18Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Tackling Algorithmic Disability Discrimination in the Hiring Process: An
Ethical, Legal and Technical Analysis [2.294014185517203]
我々は、障害者差別に関連して、AIによる雇用によって引き起こされる懸念と機会について論じる。
私たちはいくつかの出発点を確立し、倫理主義者、議員、支持者、そしてAI実践者のためのロードマップを設計します。
論文 参考訳(メタデータ) (2022-06-13T13:32:37Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - How Does NLP Benefit Legal System: A Summary of Legal Artificial
Intelligence [81.04070052740596]
法律人工知能(Legal AI)は、人工知能、特に自然言語処理の技術を適用して、法的領域におけるタスクに役立てることに焦点を当てている。
本稿では,LegalAIにおける研究の歴史,現状,今後の方向性について紹介する。
論文 参考訳(メタデータ) (2020-04-25T14:45:15Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - Distinguish Confusing Law Articles for Legal Judgment Prediction [30.083642130015317]
LJP(Lawal Judgment Prediction)は、その事実を記述したテキストが与えられた場合、訴訟の判断結果を自動的に予測するタスクである。
LJP の課題を解決するために,エンド・ツー・エンドのモデル LADAN を提案する。
論文 参考訳(メタデータ) (2020-04-06T11:09:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。