論文の概要: The four-fifths rule is not disparate impact: a woeful tale of epistemic
trespassing in algorithmic fairness
- arxiv url: http://arxiv.org/abs/2202.09519v1
- Date: Sat, 19 Feb 2022 04:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 07:54:42.126565
- Title: The four-fifths rule is not disparate impact: a woeful tale of epistemic
trespassing in algorithmic fairness
- Title(参考訳): 4-fifthsルールは異なる影響ではない:アルゴリズム的公平さにおける認識論的不法侵入の悲惨な物語
- Authors: Elizabeth Anne Watkins and Michael McKenna and Jiahao Chen
- Abstract要約: 我々は、責任あるAIの分野が4/5のルールを異なるインパクト尺度に抽象化することで、不完全なシナコドーチェを生み出したかを研究する。
この計量は、元の4/5規則に欠落していた倫理的害に対する新しい非行のニュアンスと新しいポテンシャルを誤って導入する。
また、この分野が4/5ルールを一般的なAIフェアネスソフトウェアツールキットに符号化する際の害の可能性を増幅したかを調査した。
- 参考スコア(独自算出の注目度): 6.022343722228536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer scientists are trained to create abstractions that simplify and
generalize. However, a premature abstraction that omits crucial contextual
details creates the risk of epistemic trespassing, by falsely asserting its
relevance into other contexts. We study how the field of responsible AI has
created an imperfect synecdoche by abstracting the four-fifths rule (a.k.a. the
4/5 rule or 80% rule), a single part of disparate impact discrimination law,
into the disparate impact metric. This metric incorrectly introduces a new
deontic nuance and new potentials for ethical harms that were absent in the
original 4/5 rule. We also survey how the field has amplified the potential for
harm in codifying the 4/5 rule into popular AI fairness software toolkits. The
harmful erasure of legal nuances is a wake-up call for computer scientists to
self-critically re-evaluate the abstractions they create and use, particularly
in the interdisciplinary field of AI ethics.
- Abstract(参考訳): コンピュータ科学者は、単純化し一般化する抽象概念を作成するように訓練される。
しかし、重要な文脈の詳細を省略する時期尚早な抽象化は、他の文脈との関係を誤って主張することで、認識論的不法侵入のリスクを生じさせる。
我々は、責任あるAIの分野が4/5ルール(すなわち4/5ルールまたは80%ルール)を異なるインパクト差別法の一部分として抽象化して、不完全なシナコドーチェを生み出した方法を研究する。
この計量は、元の4/5規則に欠落していた倫理的害に対する新しい非行のニュアンスと新しいポテンシャルを誤って導入する。
また、この分野が4/5ルールを一般的なAIフェアネスソフトウェアツールキットに符号化する際の害の可能性を増幅したかを調査した。
法的ニュアンスの有害な消去は、特にai倫理の学際的な分野において、コンピュータ科学者が生み出した抽象概念を自己批判的に再評価するように促すことである。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - A Case for AI Safety via Law [0.0]
人工知能(AI)システムを安全にし、人間の価値と整合させるには、オープンな研究課題である。
提案された解決策は、不確実な状況における人間の介入に依存する傾向にある。
本稿では,AIの安全性に対処する上で,効果的な法体系が最善の方法であることを示す。
論文 参考訳(メタデータ) (2023-07-31T19:55:27Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Rethinking Fairness: An Interdisciplinary Survey of Critiques of
Hegemonic ML Fairness Approaches [0.0]
本稿では、機械学習(ML)における現在の公平性向上技術介入の批判を評価し、比較する。
哲学、フェミニスト研究、批判的な人種と民族研究、法学、人類学、科学と技術研究など、様々な非計算分野から派生している。
この記事は、社会における強大な力のダイナミクスと構造的不正を積極的に破壊する未来のMLフェアネス研究の方向性を想像することで締めくくっている。
論文 参考訳(メタデータ) (2022-05-06T14:27:57Z) - From the Ground Truth Up: Doing AI Ethics from Practice to Principles [0.0]
最近のAI倫理は、抽象原則を実践に下方へ適用することに焦点を当てている。
この論文は反対方向に動く。
倫理的な洞察は、具体的な人間の問題に取り組んでいるAI設計者の生きた経験から生まれる。
論文 参考訳(メタデータ) (2022-01-05T15:33:33Z) - Fairness Deconstructed: A Sociotechnical View of 'Fair' Algorithms in
Criminal Justice [0.0]
機械学習の研究者たちはフェアネスの手法を開発しており、その多くは保護された属性をまたいだ経験的メトリクスの等化に依存している。
公正なMLの多くは、基礎となる犯罪データに対する公平性の問題を考慮していない、と私は主張する。
電力不均衡を緩和するAIを構築する代わりに、構造的辺縁化の根本原因を理解するためにデータサイエンスを使用できるかどうかを尋ねる。
論文 参考訳(メタデータ) (2021-06-25T06:52:49Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - RNNLogic: Learning Logic Rules for Reasoning on Knowledge Graphs [91.71504177786792]
本稿では知識グラフに基づく推論のための論理規則の学習について研究する。
論理規則は、予測に使用されるときに解釈可能な説明を提供するとともに、他のタスクに一般化することができる。
既存の手法は、検索スペースの検索の問題や、スパース報酬による非効率な最適化に悩まされている。
論文 参考訳(メタデータ) (2020-10-08T14:47:02Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。