論文の概要: MANI-Rank: Multiple Attribute and Intersectional Group Fairness for
Consensus Ranking
- arxiv url: http://arxiv.org/abs/2207.10020v1
- Date: Wed, 20 Jul 2022 16:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 14:19:53.241440
- Title: MANI-Rank: Multiple Attribute and Intersectional Group Fairness for
Consensus Ranking
- Title(参考訳): MANI-Rank:コンセンサスランキングにおける複数属性とグループ間フェアネス
- Authors: Kathleen Cachel, Elke Rundensteiner, and Lane Harrison
- Abstract要約: ランキングにおけるグループフェアネス、特にランクアグリゲーションは、その初期段階にある。
近年の研究では、ランキングを組み合わせるための公正なランクアグリゲーションの概念が導入されたが、候補が1つの二項保護属性を持つ場合に限られている。
しかし、すべてのランク付け者の好みを表すコンセンサスランキングを作成する方法は、依然として未解決の問題である。
我々は、このオープンなマルチ属性フェアコンセンサスランキング問題を初めて定義し、解決する。
- 参考スコア(独自算出の注目度): 6.231376714841276
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Combining the preferences of many rankers into one single consensus ranking
is critical for consequential applications from hiring and admissions to
lending. While group fairness has been extensively studied for classification,
group fairness in rankings and in particular rank aggregation remains in its
infancy. Recent work introduced the concept of fair rank aggregation for
combining rankings but restricted to the case when candidates have a single
binary protected attribute, i.e., they fall into two groups only. Yet it
remains an open problem how to create a consensus ranking that represents the
preferences of all rankers while ensuring fair treatment for candidates with
multiple protected attributes such as gender, race, and nationality. In this
work, we are the first to define and solve this open Multi-attribute Fair
Consensus Ranking (MFCR) problem. As a foundation, we design novel group
fairness criteria for rankings, called MANI-RANK, ensuring fair treatment of
groups defined by individual protected attributes and their intersection.
Leveraging the MANI-RANK criteria, we develop a series of algorithms that for
the first time tackle the MFCR problem. Our experimental study with a rich
variety of consensus scenarios demonstrates our MFCR methodology is the only
approach to achieve both intersectional and protected attribute fairness while
also representing the preferences expressed through many base rankings. Our
real-world case study on merit scholarships illustrates the effectiveness of
our MFCR methods to mitigate bias across multiple protected attributes and
their intersections. This is an extended version of "MANI-Rank: Multiple
Attribute and Intersectional Group Fairness for Consensus Ranking", to appear
in ICDE 2022.
- Abstract(参考訳): 多くのランク付け者の選好を1つのコンセンサスランキングに組み合わせることは、雇用や入場から融資まで、一連の応用に不可欠である。
グループフェアネスは分類のために広範囲に研究されてきたが、ランキングや特にランクアグリゲーションにおけるグループフェアネスは、まだ初期段階にある。
近年の研究では、ランキングを組み合わせるための公正ランクアグリゲーションの概念が導入されたが、候補が1つの二項保護属性を持つ場合、すなわち2つのグループに分かれる場合に限られている。
しかし、性別、人種、国籍など複数の保護された属性を持つ候補者に対して公正な待遇を確保しつつ、すべてのランクの選好を表すコンセンサスランキングを作成する方法は、いまだに未解決の問題である。
この研究において、我々はこのオープンマルチ属性フェアコンセンサスランキング(mfcr)問題を最初に定義し、解決する。
基礎として,MANI-RANKと呼ばれる新規グループフェアネス基準を設計し,個々の保護属性とその交点によって定義されるグループを公平に扱う。
MANI-RANK基準を利用して,MFCR問題に初めて取り組む一連のアルゴリズムを開発する。
多様なコンセンサスシナリオを用いた実験により,mfcr手法は,交叉属性と保護属性の公平性を両立する唯一の手法であると同時に,多数のベースランキングを通じて表現される選好を表現できることを示した。
実世界の学際研究は、MFCR法の有効性を実証し、複数の保護属性とそれらの交点に偏りを緩和する。
これはICDE 2022に掲載される"MANI-Rank: Multiple Attribute and Intersectional Group Fairness for Consensus Ranking"の拡張版である。
関連論文リスト
- Fairness in Ranking: Robustness through Randomization without the Protected Attribute [15.086941303164375]
本稿では,保護属性の可用性を必要とせず,列挙後処理のランダム化手法を提案する。
本研究では,P-FairnessとNDCG(正規化非カウント累積ゲイン)に関して,提案手法のロバスト性を示し,従来提案されていた手法を改良した。
論文 参考訳(メタデータ) (2024-03-28T13:50:24Z) - Measuring Bias in a Ranked List using Term-based Representations [50.69722973236967]
TExFAIR (term exposure-based fairness) と呼ばれる新しい尺度を提案する。
TExFAIRは、ランクリスト内のグループの項ベースの表現に基づいて公正度を測定する。
実験の結果,TExFAIRとNFaiRRの相関は認められず,TExFAIRはNFaiRRと異なる寸法の公正度を測っていることがわかった。
論文 参考訳(メタデータ) (2024-03-09T18:24:58Z) - Stability and Multigroup Fairness in Ranking with Uncertain Predictions [61.76378420347408]
我々の研究はランキング関数について考察している。分類タスクの個々の予測からランキング上の分布へのマップ。
ランキング関数の2つの側面、すなわち予測における摂動に対する安定性と、個人とサブグループの両方に対する公正性に焦点を当てる。
我々の研究は、不確実性に敏感なランキングが、グループと個人レベルの公正性の保証とを自然に補間していることを示している。
論文 参考訳(メタデータ) (2024-02-14T17:17:05Z) - Fairness in Ranking under Disparate Uncertainty [24.401219403555814]
我々は、基礎となる関連モデルの不確実性がオプション群間で異なる場合、ランク付けは不公平をもたらす可能性があると論じる。
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
異なる不確実性が存在する場合でも、EORは関連する選択肢の中でグループワイドフェア・宝くじに対応していることを示す。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Detection of Groups with Biased Representation in Ranking [28.095668425175564]
上位ランクの項目に偏りのある群を検出する問題について検討する。
2つの異なる公正度尺度に対する効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-30T10:50:02Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。