論文の概要: (Unfair) Norms in Fairness Research: A Meta-Analysis
- arxiv url: http://arxiv.org/abs/2407.16895v1
- Date: Mon, 17 Jun 2024 17:14:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-05 01:45:45.355520
- Title: (Unfair) Norms in Fairness Research: A Meta-Analysis
- Title(参考訳): フェアネス研究のノーム:メタ分析
- Authors: Jennifer Chien, A. Stevie Bergman, Kevin R. McKee, Nenad Tomasev, Vinodkumar Prabhakaran, Rida Qadri, Nahema Marchal, William Isaac,
- Abstract要約: 我々は,AIフェアネスと倫理に関する2つの主要なカンファレンスから,アルゴリズムフェアネス論文のメタ分析を行う。
まず、米国中心の視点が公正調査全体において支配的な傾向を示す。
第二に、公正性の研究は、人間のアイデンティティの二項結合に広く依存している。
- 参考スコア(独自算出の注目度): 6.395584220342517
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Algorithmic fairness has emerged as a critical concern in artificial intelligence (AI) research. However, the development of fair AI systems is not an objective process. Fairness is an inherently subjective concept, shaped by the values, experiences, and identities of those involved in research and development. To better understand the norms and values embedded in current fairness research, we conduct a meta-analysis of algorithmic fairness papers from two leading conferences on AI fairness and ethics, AIES and FAccT, covering a final sample of 139 papers over the period from 2018 to 2022. Our investigation reveals two concerning trends: first, a US-centric perspective dominates throughout fairness research; and second, fairness studies exhibit a widespread reliance on binary codifications of human identity (e.g., "Black/White", "male/female"). These findings highlight how current research often overlooks the complexities of identity and lived experiences, ultimately failing to represent diverse global contexts when defining algorithmic bias and fairness. We discuss the limitations of these research design choices and offer recommendations for fostering more inclusive and representative approaches to fairness in AI systems, urging a paradigm shift that embraces nuanced, global understandings of human identity and values.
- Abstract(参考訳): アルゴリズムフェアネスは人工知能(AI)研究において重要な関心事となっている。
しかし、公正なAIシステムの開発は客観的なプロセスではない。
公正は本質的に主観的な概念であり、研究や開発に関わる人々の価値、経験、アイデンティティによって形作られた。
現在フェアネス研究に埋め込まれている規範と価値をよりよく理解するために、2018年から2022年までの2つの主要なカンファレンスであるAIフェアネスと倫理に関するAIESとFAccTから、アルゴリズムフェアネス論文のメタ分析を行い、2018年から2022年にかけての139の論文の最終サンプルをカバーした。
第1に、米国中心の視点がフェアネス研究全体において支配的であり、第2に、フェアネス研究は、人間のアイデンティティのバイナリ化(例えば、"Black/White"、"male/female")に広く依存していることを示す。
これらの発見は、現在の研究がアイデンティティと生きた経験の複雑さをしばしば見落とし、最終的にアルゴリズムのバイアスと公正性を定義する際に、さまざまなグローバルな文脈を表現できないことを強調している。
我々は、これらの研究設計選択の限界について議論し、AIシステムにおける公平性に対するより包括的で代表的なアプローチを促進するための推奨を提供し、人間のアイデンティティと価値に対するグローバルな理解を受け入れるパラダイムシフトを促します。
関連論文リスト
- Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications [2.612585751318055]
人工知能の教育への統合は変革の可能性を秘めており、適切な学習経験と創造的な教育的アプローチを提供する。
しかし、AIアルゴリズムの固有のバイアスは、特定の人口層に対する偏見を意図せずに永続させることによって、この改善を妨げている。
この調査は、教育的文脈におけるアルゴリズムフェアネスの発達するトピックを深く掘り下げている。
データ関連、アルゴリズム、ユーザーインタラクションなど、AI教育における公正性の達成を根本的に損なう共通のバイアスの形式を特定します。
論文 参考訳(メタデータ) (2024-07-26T13:59:20Z) - The Pursuit of Fairness in Artificial Intelligence Models: A Survey [2.124791625488617]
この調査は、研究者がAIシステムの公正性を促進する方法の相乗効果を提供する。
AIモデルのバイアスを軽減するために研究者が採用したアプローチとテクニックについて、徹底的な研究がなされている。
また、偏見付きモデルがユーザエクスペリエンスに与える影響や、そのようなモデルの開発とデプロイにおいて考慮すべき倫理的考慮についても調べます。
論文 参考訳(メタデータ) (2024-03-26T02:33:36Z) - AI Fairness in Practice [0.46671368497079174]
フェアネスの概念が何を意味するのか、どのように実践されるべきなのか、社会全体に幅広い見解がある。
このワークブックは、AIフェアネスを理解するためのコンテキストベースのアプローチが、プロジェクトチームにとって、不公平な偏見と差別がAIプロジェクトワークフロー全体にわたって生み出す多くの方法を特定し、緩和し、管理する上で、どのように役立つかを説明している。
論文 参考訳(メタデータ) (2024-02-19T23:02:56Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Rethinking Fairness: An Interdisciplinary Survey of Critiques of
Hegemonic ML Fairness Approaches [0.0]
本稿では、機械学習(ML)における現在の公平性向上技術介入の批判を評価し、比較する。
哲学、フェミニスト研究、批判的な人種と民族研究、法学、人類学、科学と技術研究など、様々な非計算分野から派生している。
この記事は、社会における強大な力のダイナミクスと構造的不正を積極的に破壊する未来のMLフェアネス研究の方向性を想像することで締めくくっている。
論文 参考訳(メタデータ) (2022-05-06T14:27:57Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Algorithmic Fairness [11.650381752104298]
正確であるだけでなく、客観的かつ公正なAIアルゴリズムを開発することが不可欠である。
近年の研究では、アルゴリズムによる意思決定は本質的に不公平である可能性が示されている。
論文 参考訳(メタデータ) (2020-01-21T19:01:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。