論文の概要: Optimizing Group-Fair Plackett-Luce Ranking Models for Relevance and
Ex-Post Fairness
- arxiv url: http://arxiv.org/abs/2308.13242v1
- Date: Fri, 25 Aug 2023 08:27:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 14:42:10.892850
- Title: Optimizing Group-Fair Plackett-Luce Ranking Models for Relevance and
Ex-Post Fairness
- Title(参考訳): グループフェア・プラケット・ルースランキングモデルの妥当性とポストフェアネスの最適化
- Authors: Sruthi Gorantla, Eshaan Bhansali, Amit Deshpande, Anand Louis
- Abstract要約: 学習からランクへの学習において、関連性のみを最適化することは、特定のカテゴリの項目に表現的害をもたらす可能性がある。
本稿では,与えられた表現制約を満たすランキングに対して,期待される妥当性を最大化する新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 5.349671569838342
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In learning-to-rank (LTR), optimizing only the relevance (or the expected
ranking utility) can cause representational harm to certain categories of
items. Moreover, if there is implicit bias in the relevance scores, LTR models
may fail to optimize for true relevance. Previous works have proposed efficient
algorithms to train stochastic ranking models that achieve fairness of exposure
to the groups ex-ante (or, in expectation), which may not guarantee
representation fairness to the groups ex-post, that is, after realizing a
ranking from the stochastic ranking model. Typically, ex-post fairness is
achieved by post-processing, but previous work does not train stochastic
ranking models that are aware of this post-processing.
In this paper, we propose a novel objective that maximizes expected relevance
only over those rankings that satisfy given representation constraints to
ensure ex-post fairness. Building upon recent work on an efficient sampler for
ex-post group-fair rankings, we propose a group-fair Plackett-Luce model and
show that it can be efficiently optimized for our objective in the LTR
framework.
Experiments on three real-world datasets show that our group-fair algorithm
guarantees fairness alongside usually having better relevance compared to the
LTR baselines. In addition, our algorithm also achieves better relevance than
post-processing baselines, which also ensures ex-post fairness. Further, when
implicit bias is injected into the training data, our algorithm typically
outperforms existing LTR baselines in relevance.
- Abstract(参考訳): LTR(Learning-to-rank)では、関連性(または期待されるランキングユーティリティ)のみを最適化することで、特定のカテゴリの項目に表現的打撃を与える。
さらに、関連性スコアに暗黙のバイアスがある場合、LTRモデルは真の関連性のために最適化に失敗する可能性がある。
以前の研究では、確率的ランク付けモデルからランク付けを実現した後、前のグループに対する表現的公平性を保証しない(あるいは期待して)グループへの露出の公平性を達成する確率的ランク付けモデルを訓練するための効率的なアルゴリズムを提案している。
典型的には、前ポストフェアネスは後処理によって達成されるが、前回の仕事は、この後処理に気付いている確率的ランキングモデルを訓練していない。
本稿では,与えられた表象制約を満たすランキングに対してのみ期待された妥当性を最大化する新しい目的を提案する。
ポストグループフェアランキングの効率的なサンプリングを行うための最近の研究に基づいて、グループフェアのPlanet-Luceモデルを提案し、LTRフレームワークの目的に対して効率的に最適化できることを示す。
3つの実世界のデータセットの実験により、我々のグループフェアアルゴリズムは、LTRベースラインと比較して、通常より適切な妥当性を持つとともに、公正性を保証する。
さらに,提案アルゴリズムは,ポスト処理ベースラインよりも妥当性が向上し,ポストの公平性が保証される。
さらに、トレーニングデータに暗黙バイアスが注入されると、我々のアルゴリズムは関連性において既存のLTRベースラインを上回っます。
関連論文リスト
- Preference Learning Algorithms Do Not Learn Preference Rankings [62.335733662381884]
選好学習は、好ましくない出力よりも、好ましくない出力により高い確率を割り当てるようにモデルを訓練する、という従来の知恵を考察する。
多くの最先端の選好調整モデルでは、一般的な選好データセットでは60%未満のランキング精度が得られている。
論文 参考訳(メタデータ) (2024-05-29T21:29:44Z) - Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Estimating the Hessian Matrix of Ranking Objectives for Stochastic Learning to Rank with Gradient Boosted Trees [63.18324983384337]
グラディエントブースト決定木(GBDT)のランク付け手法について紹介する。
我々の主な貢献は、二階微分、すなわちヘッセン行列に対する新しい推定器である。
推定器を既存のPL-Rankフレームワークに組み込む。
論文 参考訳(メタデータ) (2024-04-18T13:53:32Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Inference-time Stochastic Ranking with Risk Control [19.20938164194589]
ランク付け方法の学習はオンライン経済において不可欠であり、ユーザやアイテムプロバイダに影響を与える。
本稿では,事前学習されたスコアリング関数に対して,保証されたユーティリティや公平さで推論時にランク付けを行う新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-12T15:44:58Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Individually Fair Ranking [23.95661284311917]
個別に公平な学習からランクへのモデルを訓練するアルゴリズムを開発した。
提案手法では,少数グループの項目が多数派からの類似項目とともに現れることを保証する。
論文 参考訳(メタデータ) (2021-03-19T21:17:11Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。