論文の概要: Affirmative Algorithms: The Legal Grounds for Fairness as Awareness
- arxiv url: http://arxiv.org/abs/2012.14285v1
- Date: Fri, 18 Dec 2020 22:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:56:54.474670
- Title: Affirmative Algorithms: The Legal Grounds for Fairness as Awareness
- Title(参考訳): 肯定的アルゴリズム:公正を意識する法的根拠
- Authors: Daniel E. Ho and Alice Xiang
- Abstract要約: このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While there has been a flurry of research in algorithmic fairness, what is
less recognized is that modern antidiscrimination law may prohibit the adoption
of such techniques. We make three contributions. First, we discuss how such
approaches will likely be deemed "algorithmic affirmative action," posing
serious legal risks of violating equal protection, particularly under the
higher education jurisprudence. Such cases have increasingly turned toward
anticlassification, demanding "individualized consideration" and barring
formal, quantitative weights for race regardless of purpose. This case law is
hence fundamentally incompatible with fairness in machine learning. Second, we
argue that the government-contracting cases offer an alternative grounding for
algorithmic fairness, as these cases permit explicit and quantitative
race-based remedies based on historical discrimination by the actor. Third,
while limited, this doctrinal approach also guides the future of algorithmic
fairness, mandating that adjustments be calibrated to the entity's
responsibility for historical discrimination causing present-day disparities.
The contractor cases provide a legally viable path for algorithmic fairness
under current constitutional doctrine but call for more research at the
intersection of algorithmic fairness and causal inference to ensure that bias
mitigation is tailored to specific causes and mechanisms of bias.
- Abstract(参考訳): アルゴリズム的公正性の研究は盛んに行われているが、現代の反差別法はそのような手法の採用を禁止している。
我々は3つの貢献をした。
まず,このようなアプローチが「自己肯定的行動」と見なされる可能性について議論し,特に高等教育法学において,平等保護を侵害する重大な法的リスクを提起する。
このようなケースは次第に反分類へと変わり、「個別の考慮」を要求し、目的に関係なく正式な量的重み付けを禁止している。
したがって、このケース法則は、機械学習における公平性と根本的に相容れない。
第2に,これらの事例は,俳優の歴史的差別に基づく明示的かつ定量的な人種ベースの救済を許容するため,政府契約の事例は,アルゴリズム的公平性に対する代替的根拠を提供すると主張する。
第3に、このドクトリナルアプローチはアルゴリズムの公平性の将来を導くもので、今日の格差を引き起こす歴史的差別に対するエンティティの責任に合わせて調整を行うことを義務付けている。
請負業者のケースは、現在の憲法ドクトリンの下でアルゴリズムの公平性に対して法的に実行可能な経路を提供するが、バイアス緩和が特定の原因とバイアスのメカニズムに合わせたものであることを保証するために、アルゴリズムの公平性と因果推論の交点におけるさらなる研究を要求する。
関連論文リスト
- Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness
Criteria in Machine Learning and Law [0.6824747267214372]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - Exploiting Contrastive Learning and Numerical Evidence for Confusing
Legal Judgment Prediction [46.71918729837462]
訴訟の事実記述文を考慮し、法的判断予測は、事件の告訴、法律記事、刑期を予測することを目的としている。
従来の研究では、標準的なクロスエントロピー分類損失と異なる分類誤差を区別できなかった。
本稿では,モコに基づく教師付きコントラスト学習を提案する。
さらに,事前学習した数値モデルにより符号化された抽出された犯罪量による事実記述の表現をさらに強化する。
論文 参考訳(メタデータ) (2022-11-15T15:53:56Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Algorithmic Fairness and Vertical Equity: Income Fairness with IRS Tax
Audit Models [73.24381010980606]
本研究は、IRSによる税務監査選択を通知するシステムの文脈におけるアルゴリズムフェアネスの問題について検討する。
監査を選択するための柔軟な機械学習手法が、垂直エクイティにどのように影響するかを示す。
この結果は,公共セクター全体でのアルゴリズムツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2022-06-20T16:27:06Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。