論文の概要: Fair Ranking under Disparate Uncertainty
- arxiv url: http://arxiv.org/abs/2309.01610v1
- Date: Mon, 4 Sep 2023 13:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:34:18.785186
- Title: Fair Ranking under Disparate Uncertainty
- Title(参考訳): 不確かさによる公正なランク付け
- Authors: Richa Rastogi, Thorsten Joachims
- Abstract要約: 我々は、基礎となる関連モデルの不確実性がオプション群間で異なる場合、ランク付けは不公平をもたらす可能性があると論じる。
我々は、グループ間の不確実性の格差を確実に補正する新しい公正基準として、平等ランク付け(EOR)を提案する。
O(n log(n)$ の時間で EOR ランキングを計算するための実用的なアルゴリズムを提案し,その近似保証を大域的最適解に対して証明する。
- 参考スコア(独自算出の注目度): 28.826808256840703
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Ranking is a ubiquitous method for focusing the attention of human evaluators
on a manageable subset of options. Its use ranges from surfacing potentially
relevant products on an e-commerce site to prioritizing college applications
for human review. While ranking can make human evaluation far more effective by
focusing attention on the most promising options, we argue that it can
introduce unfairness if the uncertainty of the underlying relevance model
differs between groups of options. Unfortunately, such disparity in uncertainty
appears widespread, since the relevance estimates for minority groups tend to
have higher uncertainty due to a lack of data or appropriate features. To
overcome this fairness issue, we propose Equal-Opportunity Ranking (EOR) as a
new fairness criterion for ranking that provably corrects for the disparity in
uncertainty between groups. Furthermore, we present a practical algorithm for
computing EOR rankings in time $O(n \log(n))$ and prove its close approximation
guarantee to the globally optimal solution. In a comprehensive empirical
evaluation on synthetic data, a US Census dataset, and a real-world case study
of Amazon search queries, we find that the algorithm reliably guarantees EOR
fairness while providing effective rankings.
- Abstract(参考訳): ランキングは、人間の評価者の注意をオプションの管理可能なサブセットに集中させるユビキタスな方法である。
その用途は、電子商取引サイト上の潜在的関連商品の紹介から、ヒューマンレビューのための大学アプリケーションへの優先順位付けまで多岐にわたる。
ランク付けは、最も有望な選択肢に注意を向けることで、人間の評価をより効果的にすることができるが、基礎となる関連モデルの不確実性が選択肢群間で異なる場合、不公平を生じさせる可能性があると論じる。
残念なことに、これらの不確実性の違いは、データや適切な特徴の欠如により、少数グループの関連性推定が不確実性が高い傾向があるため、広く見られる。
この公平性問題を克服するために,グループ間の不確実性の格差を確実に補正する新たな公平性基準として,平等性ランキング(EOR)を提案する。
さらに、EORランキングを時間$O(n \log(n))$で計算するための実用的なアルゴリズムを提案し、地球規模の最適解に対する近似を保証する。
合成データ、米国国勢調査データセット、およびAmazon検索クエリの実世界ケーススタディに関する総合的な実証的な評価において、このアルゴリズムは効果的なランキングを提供しながら、EORフェアネスを確実に保証する。
関連論文リスト
- A Distributionally Robust Optimisation Approach to Fair Credit Scoring [2.8851756275902467]
クレジットスコアリングは、欧州委員会と米国大統領の執行部によって、リスクの高い分類タスクとしてカタログ化されている。
この懸念に対処するため、近年の信用スコアリング研究は、公平性向上技術の範囲を検討した。
論文 参考訳(メタデータ) (2024-02-02T11:43:59Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Explainable Disparity Compensation for Efficient Fair Ranking [0.3759936323189418]
意思決定システムで使用されるランク付け関数は、基礎となるデータに偏りがあるため、異なる集団に対して異なる結果をもたらすことが多い。
最近の補償策は主に、公正性を保証するためにランク関数の不透明な変換に焦点を当てている。
本稿では,ランキング関数に対するデータ駆動型補償法を提案する。
論文 参考訳(メタデータ) (2023-07-25T09:12:50Z) - RAGUEL: Recourse-Aware Group Unfairness Elimination [2.720659230102122]
「algorithmic recourse」は、望ましくない結果を変えるための実行可能な回復行動を提供する。
ランク付けされたグループレベルのリコースフェアネスの概念を導入する。
我々は、ランク付けされたrecourse Fairness制約を満たす'recourse-aware ranking'ソリューションを開発する。
論文 参考訳(メタデータ) (2022-08-30T11:53:38Z) - Delving into Probabilistic Uncertainty for Unsupervised Domain Adaptive
Person Re-Identification [54.174146346387204]
ドメイン適応型人物再識別のための確率的不確実性誘導プログレッシブラベル精錬(P$2$LR)という手法を提案する。
擬似ラベルの不確実性を測定し、ネットワークトレーニングを容易にする定量的基準を確立する。
本手法はDuke2Marketタスクではベースラインが6.5%,Market2MSMTタスクでは2.5%,最先端手法では2.5%を上回った。
論文 参考訳(メタデータ) (2021-12-28T07:40:12Z) - User Fairness, Item Fairness, and Diversity for Rankings in Two-Sided
Markets [28.537935838669423]
ユーザフェアネス、アイテムフェアネス、多様性は根本的に異なる概念であることを示す。
3つのデシラタを明示的に強制する最初のランク付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-04T02:53:09Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - SetRank: A Setwise Bayesian Approach for Collaborative Ranking from
Implicit Feedback [50.13745601531148]
提案手法は,提案システムにおける暗黙的フィードバックの特性に対応するために,協調的ランキング(SeetRank)のためのセッティングワイドベイズ的手法を提案する。
具体的には、SetRankは、新しい設定された選好比較の後方確率を最大化することを目的としている。
また、SetRankの理論解析により、余剰リスクの境界が$sqrtM/N$に比例できることを示す。
論文 参考訳(メタデータ) (2020-02-23T06:40:48Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。