論文の概要: Sampling Individually-Fair Rankings that are Always Group Fair
- arxiv url: http://arxiv.org/abs/2306.11964v1
- Date: Wed, 21 Jun 2023 01:26:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 15:17:10.253311
- Title: Sampling Individually-Fair Rankings that are Always Group Fair
- Title(参考訳): 常にグループフェアである個人別ランキングのサンプリング
- Authors: Sruthi Gorantla, Anay Mehrotra, Amit Deshpande, Anand Louis
- Abstract要約: 公正ランキングタスクは、グループフェアネスの制約を満たすために、実用性を最大化するために一連のアイテムをランク付けするよう要求する。
近年の研究では、品物の効用の不確かさが不公平の原因となっている。
我々は,各アウトプットランキングがグループフェアであることを保証しながら,個別のフェア分布からランキングを抽出する効率的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 9.333939443470944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rankings on online platforms help their end-users find the relevant
information -- people, news, media, and products -- quickly. Fair ranking
tasks, which ask to rank a set of items to maximize utility subject to
satisfying group-fairness constraints, have gained significant interest in the
Algorithmic Fairness, Information Retrieval, and Machine Learning literature.
Recent works, however, identify uncertainty in the utilities of items as a
primary cause of unfairness and propose introducing randomness in the output.
This randomness is carefully chosen to guarantee an adequate representation of
each item (while accounting for the uncertainty). However, due to this
randomness, the output rankings may violate group fairness constraints. We give
an efficient algorithm that samples rankings from an individually-fair
distribution while ensuring that every output ranking is group fair. The
expected utility of the output ranking is at least $\alpha$ times the utility
of the optimal fair solution. Here, $\alpha$ depends on the utilities,
position-discounts, and constraints -- it approaches 1 as the range of
utilities or the position-discounts shrinks, or when utilities satisfy
distributional assumptions. Empirically, we observe that our algorithm achieves
individual and group fairness and that Pareto dominates the state-of-the-art
baselines.
- Abstract(参考訳): オンラインプラットフォームのランキングは、エンドユーザが関連する情報(人、ニュース、メディア、製品)を素早く見つけるのに役立つ。
公平なランク付けタスクは,有効課題を最大化するために一連の項目をランク付けし,グループフェアの制約を満たすように要求するが,アルゴリズム的公平性,情報検索,機械学習文献に多大な関心を寄せている。
しかし、近年の研究では、商品の効用の不確実性を不公平の主因として特定し、出力にランダム性を導入することを提案する。
このランダム性は(不確かさを考慮しつつ)各項目の適切な表現を保証するために慎重に選択される。
しかし、このランダム性のため、出力ランキングはグループフェアネス制約に違反する可能性がある。
各出力ランキングがグループフェアであることを保証すると同時に、個別のフェア分布からランキングをサンプリングする効率的なアルゴリズムを提供する。
出力ランキングの効用は、最適フェアソリューションの効用の少なくとも$\alpha$の少なくとも倍である。
ここでは、$\alpha$はユーティリティ、位置割当、制約に依存します -- ユーティリティの範囲や位置割当の縮小、あるいはユーティリティが分散仮定を満たす場合として、1に近づきます。
経験的に、我々はアルゴリズムが個人的および集団的公平性を達成し、パレートが最先端のベースラインを支配することを観察する。
関連論文リスト
- Fair Allocation in Dynamic Mechanism Design [57.66441610380448]
競売業者が各ラウンドの買い手グループに、合計で$T$で分けない商品を販売している問題を考える。
競売人は、各グループの最低平均配分を保証する公正な制約に固執しつつ、割引された全体の収益を最大化することを目的としている。
論文 参考訳(メタデータ) (2024-05-31T19:26:05Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Explainable Disparity Compensation for Efficient Fair Ranking [0.3759936323189418]
意思決定システムで使用されるランク付け関数は、基礎となるデータに偏りがあるため、異なる集団に対して異なる結果をもたらすことが多い。
最近の補償策は主に、公正性を保証するためにランク関数の不透明な変換に焦点を当てている。
本稿では,ランキング関数に対するデータ駆動型補償法を提案する。
論文 参考訳(メタデータ) (2023-07-25T09:12:50Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Detection of Groups with Biased Representation in Ranking [28.095668425175564]
上位ランクの項目に偏りのある群を検出する問題について検討する。
2つの異なる公正度尺度に対する効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-30T10:50:02Z) - Fair Ranking with Noisy Protected Attributes [25.081136190260015]
商品の社会的特質が無作為かつ独立に摂動するモデルの下で、公平な問題を考察する。
本稿では,グループフェアネス要件と,社会的に安定な属性の摂動に関する確率的情報とを組み込んだ公平なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T15:22:28Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Controlling Fairness and Bias in Dynamic Learning-to-Rank [31.41843594914603]
暗黙のフィードバックデータからランキング関数を学習しながら、グループフェアネスの概念を確実にする学習アルゴリズムを提案する。
このアルゴリズムは、公平さと実用性の両方のために、偏見のない推定器を統合するコントローラの形をとっている。
厳密な理論基盤と収束保証に加えて、アルゴリズムが極めて実用的で堅牢であることが実証的に明らかになった。
論文 参考訳(メタデータ) (2020-05-29T17:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。