論文の概要: Characterizing Intersectional Group Fairness with Worst-Case Comparisons
- arxiv url: http://arxiv.org/abs/2101.01673v3
- Date: Mon, 1 Feb 2021 03:10:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:45:11.902325
- Title: Characterizing Intersectional Group Fairness with Worst-Case Comparisons
- Title(参考訳): ワーストケース比較による区間群フェアネスの特性評価
- Authors: Avijit Ghosh, Lea Genuit, Mary Reagan
- Abstract要約: 我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning or Artificial Intelligence algorithms have gained
considerable scrutiny in recent times owing to their propensity towards
imitating and amplifying existing prejudices in society. This has led to a
niche but growing body of work that identifies and attempts to fix these
biases. A first step towards making these algorithms more fair is designing
metrics that measure unfairness. Most existing work in this field deals with
either a binary view of fairness (protected vs. unprotected groups) or
politically defined categories (race or gender). Such categorization misses the
important nuance of intersectionality - biases can often be amplified in
subgroups that combine membership from different categories, especially if such
a subgroup is particularly underrepresented in historical platforms of
opportunity.
In this paper, we discuss why fairness metrics need to be looked at under the
lens of intersectionality, identify existing work in intersectional fairness,
suggest a simple worst case comparison method to expand the definitions of
existing group fairness metrics to incorporate intersectionality, and finally
conclude with the social, legal and political framework to handle
intersectional fairness in the modern context.
- Abstract(参考訳): 機械学習または人工知能アルゴリズムは、社会における既存の偏見を模倣し増幅する傾向にあるため、近年かなり精査されている。
これはニッチだが成長する仕事の体となり、これらのバイアスを特定し、修正しようとする。
これらのアルゴリズムをより公平にするための第一歩は、不公平さを測定するメトリクスを設計することです。
この分野での既存の仕事の多くは、公正(保護されたグループと保護されていないグループ)と政治的に定義されたカテゴリー(人種または性別)の両立観を扱う。
このような分類は交叉性の重要なニュアンスを見逃す - バイアスは、異なるカテゴリのメンバシップを結合するサブグループで増幅されることが多い。
本稿では,交差点のレンズ下でのフェアネス指標の考察,交差点のフェアネスにおける既存作業の特定,既存のグループフェアネス指標の定義を拡張して交差点を包含する単純なケース比較手法の提案,そして,現代文脈における交差点フェアネスを扱うための社会的・法的・政治的枠組みの完成について論じる。
関連論文リスト
- Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Fair Without Leveling Down: A New Intersectional Fairness Definition [1.0958014189747356]
本稿では,感性グループ間での絶対値と相対値のパフォーマンスを組み合わせた$alpha$-Intersectional Fairnessという新たな定義を提案する。
我々は、新しいフェアネス定義を用いて、複数の一般的なプロセス内機械学習アプローチをベンチマークし、単純なベースラインよりも改善が得られないことを示します。
論文 参考訳(メタデータ) (2023-05-21T16:15:12Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Social Norm Bias: Residual Harms of Fairness-Aware Algorithms [21.50551404445654]
社会ノームバイアス (Social Norm Bias, SNoB) は、自動意思決定システムによって示される、微妙だが連続的な差別の一種である。
我々は、アルゴリズムの予測が性規範とどのように関連しているかを測定することでSNoBを定量化する。
後処理の介入は、この種のバイアスを全く軽減しないことを示す。
論文 参考訳(メタデータ) (2021-08-25T05:54:56Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - A Pairwise Fair and Community-preserving Approach to k-Center Clustering [34.386585230600716]
クラスタリングは多くのアプリケーションで機械学習の基本的な問題である。
クラスタリング設定,ペアワイズフェアネス,コミュニティ保存の2つの新しいフェアネスを定義した。
論文 参考訳(メタデータ) (2020-07-14T22:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。