論文の概要: An Empirical Analysis of Racial Categories in the Algorithmic Fairness
Literature
- arxiv url: http://arxiv.org/abs/2309.06607v1
- Date: Tue, 12 Sep 2023 21:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-14 16:11:41.468269
- Title: An Empirical Analysis of Racial Categories in the Algorithmic Fairness
Literature
- Title(参考訳): アルゴリズム的公正文学における人種カテゴリーの実証分析
- Authors: Amina A. Abdu, Irene V. Pasquetto, Abigail Z. Jacobs
- Abstract要約: アルゴリズムフェアネスフレームワークにおいて、レースがどのように概念化され、形式化されるかを分析する。
人種の異なる概念は、時には1つの分析の範囲内でも、矛盾なく採用されていることが分かっています。
人種的カテゴリーの構築は、社会的、政治的に重要な結果をもたらす価値の高いプロセスである、と我々は主張する。
- 参考スコア(独自算出の注目度): 2.2713084727838115
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent work in algorithmic fairness has highlighted the challenge of defining
racial categories for the purposes of anti-discrimination. These challenges are
not new but have previously fallen to the state, which enacts race through
government statistics, policies, and evidentiary standards in
anti-discrimination law. Drawing on the history of state race-making, we
examine how longstanding questions about the nature of race and discrimination
appear within the algorithmic fairness literature. Through a content analysis
of 60 papers published at FAccT between 2018 and 2020, we analyze how race is
conceptualized and formalized in algorithmic fairness frameworks. We note that
differing notions of race are adopted inconsistently, at times even within a
single analysis. We also explore the institutional influences and values
associated with these choices. While we find that categories used in
algorithmic fairness work often echo legal frameworks, we demonstrate that
values from academic computer science play an equally important role in the
construction of racial categories. Finally, we examine the reasoning behind
different operationalizations of race, finding that few papers explicitly
describe their choices and even fewer justify them. We argue that the
construction of racial categories is a value-laden process with significant
social and political consequences for the project of algorithmic fairness. The
widespread lack of justification around the operationalization of race reflects
institutional norms that allow these political decisions to remain obscured
within the backstage of knowledge production.
- Abstract(参考訳): アルゴリズムフェアネスにおける最近の研究は、差別防止のために人種分類を定義するという課題を強調している。
これらの課題は新しいものではなく、政府統計、政策、および差別防止法における明白な基準を通じて人種を制定する州に以前に及んだ。
国家の人種形成の歴史を振り返って,アルゴリズム的公平性文学において,人種と差別の性質に関する長年の疑問がいかに現れるかを検討する。
2018年から2020年にかけて、FAccTで発表された60の論文の内容分析を通じて、アルゴリズムフェアネスフレームワークにおける人種の概念化と形式化について分析する。
人種の異なる概念は、単一の分析でさえも一貫性のない形で採用されていることに注意する。
また,これらの選択に伴う制度的影響と価値についても考察する。
アルゴリズムフェアネス作業で使用されるカテゴリは、しばしば法的枠組みと一致するが、学術計算機科学の価値観が人種的カテゴリーの構築において等しく重要な役割を果たすことを示す。
最後に、人種の異なる操作の背景にある理由を調べ、それらの選択を明示的に記述する論文がほとんどなく、正当化も少ないことを突き止めた。
我々は、人種カテゴリーの構築は、アルゴリズム的公正性のプロジェクトにおいて、社会的、政治的に重要な結果をもたらす価値あるプロセスであると主張する。
人種の運営に関する正当化の広範な欠如は、これらの政治的決定が知識生産の舞台裏で曖昧にされ続けることを許す制度上の規範を反映している。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - Racial/Ethnic Categories in AI and Algorithmic Fairness: Why They Matter and What They Represent [0.0]
我々は、不明確な仮定とほとんど正当化されていない人種的カテゴリーが、どのようにしてグループを粗末に表現する様々なデータセットをもたらすかを示す。
また、人種カテゴリーの選択における選択と仮定、およびこれらのカテゴリーへの人種化の過程を文書化するためのフレームワークであるCIRCSheetsも開発している。
論文 参考訳(メタデータ) (2024-04-10T04:04:05Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - AI & Racial Equity: Understanding Sentiment Analysis Artificial
Intelligence, Data Security, and Systemic Theory in Criminal Justice Systems [0.0]
人種的体系的不正を悪化または減少させる人工知能の様々な形態が研究されている。
これは、歴史的体系的パターン、暗黙の偏見、既存のアルゴリズム的リスク、そして自然言語処理に基づくAI(リスク評価ツールなど)が人種的に異なる結果をもたらすという法的意味を通じて主張されている。
人種的に不正な結果や慣行から逸脱するためには、内部の機関や企業がアルゴリズム、プライバシーおよびセキュリティリスクをどのように活用するかを規制し、規制するために、より訴訟的な政策が必要であると結論付けている。
論文 参考訳(メタデータ) (2022-01-03T19:42:08Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Affirmative Algorithms: The Legal Grounds for Fairness as Awareness [0.0]
このようなアプローチがいかに「算術的肯定的行動」とみなされるかについて議論する。
我々は、政府契約の事件はアルゴリズムの公正性に代替的な根拠を与えると論じている。
我々は、偏り緩和が特定の原因と偏りのメカニズムに合わせたものであることを保証するために、アルゴリズム的公平性と因果推論の交点におけるさらなる研究を求める。
論文 参考訳(メタデータ) (2020-12-18T22:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。