論文の概要: Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint)
- arxiv url: http://arxiv.org/abs/2108.06918v1
- Date: Mon, 16 Aug 2021 06:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-18 07:48:08.818913
- Title: Legal perspective on possible fairness measures - A legal discussion
using the example of hiring decisions (preprint)
- Title(参考訳): 公正対策の可能性に関する法的視点 -雇用決定の例を用いた法的議論(プレプリント)-
- Authors: Marc P Hauer, Johannes Kevekordes, Maryam Amir Haeri
- Abstract要約: 雇用決定の特定の適用に適用可能な、さまざまな公正の概念を説明します。
本研究は,それぞれの公正解釈について,その長所と短所を分析し,法的観点から評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the increasing use of AI in algorithmic decision making (e.g. based on
neural networks), the question arises how bias can be excluded or mitigated.
There are some promising approaches, but many of them are based on a "fair"
ground truth, others are based on a subjective goal to be reached, which leads
to the usual problem of how to define and compute "fairness". The different
functioning of algorithmic decision making in contrast to human decision making
leads to a shift from a process-oriented to a result-oriented discrimination
assessment. We argue that with such a shift society needs to determine which
kind of fairness is the right one to choose for which certain scenario. To
understand the implications of such a determination we explain the different
kinds of fairness concepts that might be applicable for the specific
application of hiring decisions, analyze their pros and cons with regard to the
respective fairness interpretation and evaluate them from a legal perspective
(based on EU law).
- Abstract(参考訳): アルゴリズムによる意思決定(例えばニューラルネットワークに基づく)におけるAIの使用の増加により、偏見を排除または緩和する方法が問題となる。
有望なアプローチはいくつかあるが、その多くが「公正」な真実に基づいており、その他は到達すべき主観的な目標に基づいている。
人間の意思決定とは対照的に、アルゴリズムによる意思決定の異なる機能は、プロセス指向から結果指向の識別評価へのシフトをもたらす。
私たちは、このような変化によって社会は、どの種類の公正がどのシナリオを選ぶのに正しいかを決定する必要があると論じている。
このような決定の意味を理解するため、我々は、雇用決定の特定の適用に適用可能な様々なフェアネス概念を説明し、それぞれのフェアネス解釈に関して、その長所と短所を分析し、法的観点から評価する(eu法に基づく)。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fairness in AI: challenges in bridging the gap between algorithms and law [2.651076518493962]
実世界のシステムやユースケースにおける公平性の定義とアルゴリズムの仕様と採用のためのベストプラクティスと戦略を特定します。
実世界のユースケースアプリケーションに対して,特定の公平性の定義を選択する際に考慮する必要がある,一連のコア基準を導入する。
論文 参考訳(メタデータ) (2024-04-30T08:59:00Z) - AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Justice-Based Framework for the Analysis of Algorithmic
Fairness-Utility Trade-Offs [0.0]
予測に基づく意思決定システムでは、異なる視点が異なってくる可能性がある。
意思決定者の短期的なビジネス目標はしばしば、意思決定対象が公平に扱われたいという願望と矛盾している。
本稿では,これらの価値を優先した選択を明確化するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-06T20:31:55Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z) - Principal Fairness for Human and Algorithmic Decision-Making [1.2691047660244335]
我々は、人間とアルゴリズムによる意思決定のために、主公正と呼ばれる新しい公正の概念を導入する。
既存の統計的公正の定義とは異なり、主公正性は個人が決定に影響を及ぼすことができるという事実をはっきりと説明している。
論文 参考訳(メタデータ) (2020-05-21T00:24:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。