論文の概要: On the Problem of Underranking in Group-Fair Ranking
- arxiv url: http://arxiv.org/abs/2010.06986v2
- Date: Thu, 18 Feb 2021 17:20:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:39:42.706209
- Title: On the Problem of Underranking in Group-Fair Ranking
- Title(参考訳): グループフェールランキングの下位問題について
- Authors: Sruthi Gorantla, Amit Deshpande, Anand Louis
- Abstract要約: ランク付けシステムのバイアスは、社会的・経済的不平等を悪化させ、意見を分極し、ステレオタイプを強化する。
本稿では,グループフェアランキングにおける下位ランクの問題について定式化する。
任意のランク付けを行い、同時にランク付けとグループフェアネスを保証した別のランク付けを出力する公平なランク付けアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 8.963918049835375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Search and recommendation systems, such as search engines, recruiting tools,
online marketplaces, news, and social media, output ranked lists of content,
products, and sometimes, people. Credit ratings, standardized tests, risk
assessments output only a score, but are also used implicitly for ranking. Bias
in such ranking systems, especially among the top ranks, can worsen social and
economic inequalities, polarize opinions, and reinforce stereotypes. On the
other hand, a bias correction for minority groups can cause more harm if
perceived as favoring group-fair outcomes over meritocracy. In this paper, we
formulate the problem of underranking in group-fair rankings, which was not
addressed in previous work. Most group-fair ranking algorithms post-process a
given ranking and output a group-fair ranking. We define underranking based on
how close the group-fair rank of each item is to its original rank, and prove a
lower bound on the trade-off achievable for simultaneous underranking and group
fairness in ranking. We give a fair ranking algorithm that takes any given
ranking and outputs another ranking with simultaneous underranking and group
fairness guarantees comparable to the lower bound we prove. Our algorithm works
with group fairness constraints for any number of groups. Our experimental
results confirm the theoretical trade-off between underranking and group
fairness, and also show that our algorithm achieves the best of both when
compared to the state-of-the-art baselines.
- Abstract(参考訳): 検索エンジン、リクルートツール、オンラインマーケットプレイス、ニュース、ソーシャルメディアなどの検索およびレコメンデーションシステムは、コンテンツ、製品、時には人々のランク付けされたリストを出力する。
信用格付け、標準化されたテスト、リスクアセスメントはスコアのみを出力するが、ランキングにも暗黙的に使用される。
このようなランキング制度、特に上位階級のバイアスは、社会的・経済的不平等を悪化させ、意見を二分化し、ステレオタイプを強化する。
一方、少数民族に対する偏見補正は、優位性よりもグループフェアの結果を好むと認識すれば、より多くの害をもたらす可能性がある。
本稿では,先行研究では取り組まなかったグループ・フェアランキングにおける下位ランクの問題を定式化する。
ほとんどのグループフェアランキングアルゴリズムは、所定のランクを後処理し、グループフェアランキングを出力する。
我々は,各項目のグループフェアランクが本来のランクにどの程度近いかに基づいて下位ランクを定義し,同時に下位ランクとグループフェアネスを同時に達成可能なトレードオフの境界を低くする。
我々は任意のランク付けを行う公平なランク付けアルゴリズムを与え、証明した下位境界に匹敵するグループフェアネス保証を同時に有する別のランク付けを出力する。
アルゴリズムは任意の数の群に対する群フェアネス制約で動作する。
実験により,下級と群フェアネスの理論的トレードオフが確認でき,また,最先端のベースラインと比較した場合のアルゴリズムが最適であることを示す。
関連論文リスト
- Measuring Bias in a Ranked List using Term-based Representations [50.69722973236967]
TExFAIR (term exposure-based fairness) と呼ばれる新しい尺度を提案する。
TExFAIRは、ランクリスト内のグループの項ベースの表現に基づいて公正度を測定する。
実験の結果,TExFAIRとNFaiRRの相関は認められず,TExFAIRはNFaiRRと異なる寸法の公正度を測っていることがわかった。
論文 参考訳(メタデータ) (2024-03-09T18:24:58Z) - Stability and Multigroup Fairness in Ranking with Uncertain Predictions [61.76378420347408]
我々の研究はランキング関数について考察している。分類タスクの個々の予測からランキング上の分布へのマップ。
ランキング関数の2つの側面、すなわち予測における摂動に対する安定性と、個人とサブグループの両方に対する公正性に焦点を当てる。
我々の研究は、不確実性に敏感なランキングが、グループと個人レベルの公正性の保証とを自然に補間していることを示している。
論文 参考訳(メタデータ) (2024-02-14T17:17:05Z) - Found in the Middle: Permutation Self-Consistency Improves Listwise Ranking in Large Language Models [63.714662435555674]
大規模言語モデル(LLM)は、文脈の使い方に位置バイアスを示す。
我々は,ブラックボックスLLMのランキングリスト出力に対して,自己整合性(permutation self-consistency)を提案する。
LLaMA v2 (70B) では GPT-3.5 では 7-18% , LLaMA v2 (70B) では 8-16% である。
論文 参考訳(メタデータ) (2023-10-11T17:59:02Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Sampling Ex-Post Group-Fair Rankings [8.963918049835375]
上記の分布からランダムなグループフェアランキングをサンプリングするアルゴリズムを2つ提案する。
我々の問題定式化は、暗黙のバイアス、不完全関連情報、あるいは順序付けのみのランク付けが可能である場合にも有効である。
我々は、我々のアルゴリズムが、現実のデータセット上での公正さとランキングユーティリティの最近のベースラインと好適に比較できるという実証的な証拠を与える。
論文 参考訳(メタデータ) (2022-03-02T05:59:26Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Fairness for Robust Learning to Rank [8.019491256870557]
分布ロバストネスの第一原理に基づく新しいランキング体系を導出する。
提案手法は,既存のベースライン手法よりも,公平なランク付けに有効であることを示す。
論文 参考訳(メタデータ) (2021-12-12T17:56:56Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - User Fairness, Item Fairness, and Diversity for Rankings in Two-Sided
Markets [28.537935838669423]
ユーザフェアネス、アイテムフェアネス、多様性は根本的に異なる概念であることを示す。
3つのデシラタを明示的に強制する最初のランク付けアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-04T02:53:09Z) - Controlling Fairness and Bias in Dynamic Learning-to-Rank [31.41843594914603]
暗黙のフィードバックデータからランキング関数を学習しながら、グループフェアネスの概念を確実にする学習アルゴリズムを提案する。
このアルゴリズムは、公平さと実用性の両方のために、偏見のない推定器を統合するコントローラの形をとっている。
厳密な理論基盤と収束保証に加えて、アルゴリズムが極めて実用的で堅牢であることが実証的に明らかになった。
論文 参考訳(メタデータ) (2020-05-29T17:57:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。