論文の概要: A Tutorial On Intersectionality in Fair Rankings
- arxiv url: http://arxiv.org/abs/2502.05333v1
- Date: Fri, 07 Feb 2025 21:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:36:15.176890
- Title: A Tutorial On Intersectionality in Fair Rankings
- Title(参考訳): 公平なランク付けにおける節間性に関する研究
- Authors: Chiara Criscuolo, Davide Martinenghi, Giuseppe Piccirillo,
- Abstract要約: バイアスは、データ駆動の世界で差別的な結果をもたらす可能性がある。
責任あるデータサイエンスと責任ある人工知能への取り組みは、これらのバイアスを軽減することを目指している。
- 参考スコア(独自算出の注目度): 1.4883782513177093
- License:
- Abstract: We address the critical issue of biased algorithms and unfair rankings, which have permeated various sectors, including search engines, recommendation systems, and workforce management. These biases can lead to discriminatory outcomes in a data-driven world, especially against marginalized and underrepresented groups. Efforts towards responsible data science and responsible artificial intelligence aim to mitigate these biases and promote fairness, diversity, and transparency. However, most fairness-aware ranking methods singularly focus on protected attributes such as race, gender, or socio-economic status, neglecting the intersectionality of these attributes, i.e., the interplay between multiple social identities. Understanding intersectionality is crucial to ensure that existing inequalities are not preserved by fair rankings. We offer a description of the main ways to incorporate intersectionality in fair ranking systems through practical examples and provide a comparative overview of existing literature and a synoptic table summarizing the various methodologies. Our analysis highlights the need for intersectionality to attain fairness, while also emphasizing that fairness, alone, does not necessarily imply intersectionality.
- Abstract(参考訳): 我々は、検索エンジン、レコメンデーションシステム、労働管理など、様々な分野に浸透している偏見付きアルゴリズムと不公平ランキングの重大な問題に対処する。
これらのバイアスは、データ駆動の世界で、特に疎外的で表現不足なグループに対して差別的な結果をもたらす可能性がある。
責任あるデータ科学と責任ある人工知能への取り組みは、これらのバイアスを緩和し、公正さ、多様性、透明性を促進することを目的としている。
しかし、最も公正を意識したランキング手法は、人種、性別、社会経済的地位などの保護された属性に特化しており、これらの属性の交叉性を無視している。
交差性を理解することは、既存の不等式が公正なランク付けによって保存されないことを保証するために不可欠である。
本稿では, 公正ランキングシステムにおいて, 交差性を組み込む主な方法について, 実例を通して解説し, 既存の文献との比較と, 様々な方法論を要約した合成表について述べる。
我々の分析は、公平性を達成するための交叉性の必要性を強調し、一方、公平性だけは必ずしも交叉性を意味するものではないことを強調している。
関連論文リスト
- A Survey on Intersectional Fairness in Machine Learning: Notions,
Mitigation, and Challenges [11.885166133818819]
機械学習システムの採用により、公平性への懸念が高まっている。
公平さと緩和の交叉観念に関する分類を提示する。
重要な課題を特定し、今後の方向性に関するガイドラインを研究者に提供する。
論文 参考訳(メタデータ) (2023-05-11T16:49:22Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - Causal intersectionality for fair ranking [14.570546164100618]
我々は、公正な機械学習における交差性の適用を明確化し、重要な実世界効果とドメイン知識に結びつき、技術的な制限を透明化します。
我々は、実データと合成データセットに対する我々のアプローチを実験的に評価し、その振る舞いを異なる構造的仮定の下で探索した。
論文 参考訳(メタデータ) (2020-06-15T18:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。