論文の概要: Identities are not Interchangeable: The Problem of Overgeneralization in Fair Machine Learning
- arxiv url: http://arxiv.org/abs/2505.04038v1
- Date: Wed, 07 May 2025 00:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.94189
- Title: Identities are not Interchangeable: The Problem of Overgeneralization in Fair Machine Learning
- Title(参考訳): 同一性は相互交換可能ではない: 公平な機械学習におけるオーバージェネリゼーションの問題
- Authors: Angelina Wang,
- Abstract要約: 我々は、機械学習が、しばしば差別が発生する識別軸と交換可能なものとして扱われていることを考察する。
言い換えれば、人種差別は性差別、能力主義、年齢主義と同じ方法で測定され緩和される。
- 参考スコア(独自算出の注目度): 5.793851758360526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A key value proposition of machine learning is generalizability: the same methods and model architecture should be able to work across different domains and different contexts. While powerful, this generalization can sometimes go too far, and miss the importance of the specifics. In this work, we look at how fair machine learning has often treated as interchangeable the identity axis along which discrimination occurs. In other words, racism is measured and mitigated the same way as sexism, as ableism, as ageism. Disciplines outside of computer science have pointed out both the similarities and differences between these different forms of oppression, and in this work we draw out the implications for fair machine learning. While certainly not all aspects of fair machine learning need to be tailored to the specific form of oppression, there is a pressing need for greater attention to such specificity than is currently evident. Ultimately, context specificity can deepen our understanding of how to build more fair systems, widen our scope to include currently overlooked harms, and, almost paradoxically, also help to narrow our scope and counter the fear of an infinite number of group-specific methods of analysis.
- Abstract(参考訳): 同じメソッドとモデルアーキテクチャは、異なるドメインと異なるコンテキストで動作可能であるべきです。
強力ではあるが、この一般化は時として行き過ぎたり、特異点の重要性を見逃したりすることがある。
本研究は、機械学習が、識別が生じる識別軸と交換可能なものとして、どのように扱われてきたかを考察する。
言い換えれば、人種差別は性差別、能力主義、年齢主義と同じ方法で測定され緩和される。
コンピュータ科学以外の分野では、これらの異なる形態の抑圧の類似点と相違点が指摘されており、この研究において、公正な機械学習がもたらす影響を指摘した。
確かに、公正な機械学習のすべての側面は、抑圧の特定の形態に合わせて調整される必要があるわけではないが、そのような特異性に対して、現在明らかになっている以上の注意が必要である。
究極的には、コンテキスト特異性は、より公正なシステムを構築する方法の理解を深め、現在見過ごされている害を含む範囲を広げ、ほぼパラドックス的に、我々のスコープを狭め、無限に多くのグループ固有の分析方法の恐れに対処するのに役立つ。
関連論文リスト
- Hierarchical Invariance for Robust and Interpretable Vision Tasks at Larger Scales [54.78115855552886]
本稿では、畳み込みニューラルネットワーク(CNN)のような階層型アーキテクチャを用いて、オーバーコンプリート不変量を構築する方法を示す。
オーバーコンプリート性により、そのタスクはニューラルアーキテクチャサーチ(NAS)のような方法で適応的に形成される。
大規模で頑健で解釈可能な視覚タスクの場合、階層的不変表現は伝統的なCNNや不変量に対する効果的な代替物とみなすことができる。
論文 参考訳(メタデータ) (2024-02-23T16:50:07Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Locating disparities in machine learning [24.519488484614953]
我々は、ALD(Automatic Location of Disparities)と呼ばれるデータ駆動型フレームワークを提案する。
ALDは、機械学習アルゴリズムにおける格差の特定を目的としている。
合成と実世界の両方のデータセットに基づくALDの有効性を示す。
論文 参考訳(メタデータ) (2022-08-13T16:39:51Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。