論文の概要: Affirmative Algorithms: The Legal Grounds for Fairness as Awareness
- arxiv url: http://arxiv.org/abs/2012.14285v1
- Date: Fri, 18 Dec 2020 22:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:56:54.474670
- Title: Affirmative Algorithms: The Legal Grounds for Fairness as Awareness
- Title(参考訳): 肯定的アルゴリズム:公正を意識する法的根拠
- Authors: Daniel E. Ho and Alice Xiang
- Abstract要約: このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While there has been a flurry of research in algorithmic fairness, what is
less recognized is that modern antidiscrimination law may prohibit the adoption
of such techniques. We make three contributions. First, we discuss how such
approaches will likely be deemed "algorithmic affirmative action," posing
serious legal risks of violating equal protection, particularly under the
higher education jurisprudence. Such cases have increasingly turned toward
anticlassification, demanding "individualized consideration" and barring
formal, quantitative weights for race regardless of purpose. This case law is
hence fundamentally incompatible with fairness in machine learning. Second, we
argue that the government-contracting cases offer an alternative grounding for
algorithmic fairness, as these cases permit explicit and quantitative
race-based remedies based on historical discrimination by the actor. Third,
while limited, this doctrinal approach also guides the future of algorithmic
fairness, mandating that adjustments be calibrated to the entity's
responsibility for historical discrimination causing present-day disparities.
The contractor cases provide a legally viable path for algorithmic fairness
under current constitutional doctrine but call for more research at the
intersection of algorithmic fairness and causal inference to ensure that bias
mitigation is tailored to specific causes and mechanisms of bias.
- Abstract(参考訳): アルゴリズム的公正性の研究は盛んに行われているが、現代の反差別法はそのような手法の採用を禁止している。
我々は3つの貢献をした。
まず,このようなアプローチが「自己肯定的行動」と見なされる可能性について議論し,特に高等教育法学において,平等保護を侵害する重大な法的リスクを提起する。
このようなケースは次第に反分類へと変わり、「個別の考慮」を要求し、目的に関係なく正式な量的重み付けを禁止している。
したがって、このケース法則は、機械学習における公平性と根本的に相容れない。
第2に,これらの事例は,俳優の歴史的差別に基づく明示的かつ定量的な人種ベースの救済を許容するため,政府契約の事例は,アルゴリズム的公平性に対する代替的根拠を提供すると主張する。
第3に、このドクトリナルアプローチはアルゴリズムの公平性の将来を導くもので、今日の格差を引き起こす歴史的差別に対するエンティティの責任に合わせて調整を行うことを義務付けている。
請負業者のケースは、現在の憲法ドクトリンの下でアルゴリズムの公平性に対して法的に実行可能な経路を提供するが、バイアス緩和が特定の原因とバイアスのメカニズムに合わせたものであることを保証するために、アルゴリズムの公平性と因果推論の交点におけるさらなる研究を要求する。
関連論文リスト
- Randomization Techniques to Mitigate the Risk of Copyright Infringement [48.75580082851766]
著作権保護の現在の慣行を補完する潜在的なランダム化手法について検討する。
これは、著作権の先例において実質的な類似性を決定する規則の固有の曖昧さによって動機付けられている。
差分プライバシーのような同様にランダム化されたアプローチは、プライバシーリスクを軽減することに成功している。
論文 参考訳(メタデータ) (2024-08-21T20:55:00Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - DELTA: Pre-train a Discriminative Encoder for Legal Case Retrieval via Structural Word Alignment [55.91429725404988]
判例検索のための識別モデルであるDELTAを紹介する。
我々は浅層デコーダを利用して情報ボトルネックを作り、表現能力の向上を目指しています。
本手法は, 判例検索において, 既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-27T10:40:14Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness Criteria in Machine Learning and Law [2.959308758321417]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。