論文の概要: Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness
- arxiv url: http://arxiv.org/abs/2303.17555v1
- Date: Thu, 16 Mar 2023 21:02:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-02 18:11:40.610494
- Title: Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness
- Title(参考訳): 支配のマトリックスを決定づける:AIフェアネスにおける間欠性の批判的レビューと再想像
- Authors: Anaelia Ovalle, Arjun Subramonian, Vagrant Gautam, Gilbert Gee,
Kai-Wei Chang
- Abstract要約: 間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
- 参考スコア(独自算出の注目度): 55.037030060643126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intersectionality is a critical framework that, through inquiry and praxis,
allows us to examine how social inequalities persist through domains of
structure and discipline. Given AI fairness' raison d'\^etre of ``fairness,''
we argue that adopting intersectionality as an analytical framework is pivotal
to effectively operationalizing fairness. Through a critical review of how
intersectionality is discussed in 30 papers from the AI fairness literature, we
deductively and inductively: 1) map how intersectionality tenets operate within
the AI fairness paradigm and 2) uncover gaps between the conceptualization and
operationalization of intersectionality. We find that researchers
overwhelmingly reduce intersectionality to optimizing for fairness metrics over
demographic subgroups. They also fail to discuss their social context and when
mentioning power, they mostly situate it only within the AI pipeline. We: 3)
outline and assess the implications of these gaps for critical inquiry and
praxis, and 4) provide actionable recommendations for AI fairness researchers
to engage with intersectionality in their work by grounding it in AI
epistemology.
- Abstract(参考訳): 交叉性(intersectionality)は、調査とpraxisを通じて、構造と規律のドメインを通じて社会的不平等がいかに持続するかを検証できる重要なフレームワークである。
AIフェアネスのレイゾンd'\^etre of ``fairness''を考えると、フェアネスを効果的に運用するためには、交差性を分析的枠組みとして採用することが重要であると論じる。
AIフェアネス文学の30の論文において、交叉性がどのように議論されるかという批判的なレビューを通じて、私たちは誘惑的に、帰納的に。
1)AIフェアネスパラダイム内での交差性テレットの運用方法のマップ化
2)交差性の概念化と運用化のギャップを明らかにする。
研究者らは、集団的サブグループよりも公平な指標を最適化するために、圧倒的に交差性を減らしている。
また、彼らの社会的状況についても議論せず、権力について言及する場合、主にAIパイプライン内でのみ議論する。
私たち
3)批判的調査・実施におけるこれらのギャップの影響の概要と評価
4)AIフェアネス研究者に対して,AI認識学に基礎を置くことで,作業の交差性に関わるための行動可能なレコメンデーションを提供する。
関連論文リスト
- Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Does Explainable AI Have Moral Value? [0.0]
説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念を基盤とした統一的倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2023-11-05T15:59:27Z) - Intersectional Inquiry, on the Ground and in the Algorithm [1.0923877073891446]
この分野の手法は、人種、階級、民族、文化、障害といった社会的差異の共通点を考慮に入れなければならないと我々は主張する。
計算的手法と定性的手法を交叉的手法で組み合わせることの複雑さを考察する。
論文 参考訳(メタデータ) (2023-08-29T23:43:58Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Rethinking Fairness: An Interdisciplinary Survey of Critiques of
Hegemonic ML Fairness Approaches [0.0]
本稿では、機械学習(ML)における現在の公平性向上技術介入の批判を評価し、比較する。
哲学、フェミニスト研究、批判的な人種と民族研究、法学、人類学、科学と技術研究など、様々な非計算分野から派生している。
この記事は、社会における強大な力のダイナミクスと構造的不正を積極的に破壊する未来のMLフェアネス研究の方向性を想像することで締めくくっている。
論文 参考訳(メタデータ) (2022-05-06T14:27:57Z) - Causal intersectionality for fair ranking [14.570546164100618]
我々は、公正な機械学習における交差性の適用を明確化し、重要な実世界効果とドメイン知識に結びつき、技術的な制限を透明化します。
我々は、実データと合成データセットに対する我々のアプローチを実験的に評価し、その振る舞いを異なる構造的仮定の下で探索した。
論文 参考訳(メタデータ) (2020-06-15T18:57:46Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。