論文の概要: Calibrating Explore-Exploit Trade-off for Fair Online Learning to Rank
- arxiv url: http://arxiv.org/abs/2111.00735v1
- Date: Mon, 1 Nov 2021 07:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-02 17:29:29.903940
- Title: Calibrating Explore-Exploit Trade-off for Fair Online Learning to Rank
- Title(参考訳): オンラインの公正な学習がランク付けへ
- Authors: Yiling Jia, Hongning Wang
- Abstract要約: オンライン・ラーニング・ツー・ランク(OL2R)は近年,大きな研究関心を集めている。
OL2Rにおけるグループ露光によって定義される公平性を実現するための一般的な枠組みを提案する。
特に、モデルが関連性フィードバックの結果の集合を探索する場合、ランダムな置換のサブセットにその探索を限定する。
- 参考スコア(独自算出の注目度): 38.28889079095716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online learning to rank (OL2R) has attracted great research interests in
recent years, thanks to its advantages in avoiding expensive relevance labeling
as required in offline supervised ranking model learning. Such a solution
explores the unknowns (e.g., intentionally present selected results on top
positions) to improve its relevance estimation. This however triggers concerns
on its ranking fairness: different groups of items might receive differential
treatments during the course of OL2R. But existing fair ranking solutions
usually require the knowledge of result relevance or a performing ranker
beforehand, which contradicts with the setting of OL2R and thus cannot be
directly applied to guarantee fairness.
In this work, we propose a general framework to achieve fairness defined by
group exposure in OL2R. The key idea is to calibrate exploration and
exploitation for fairness control, relevance learning and online ranking
quality. In particular, when the model is exploring a set of results for
relevance feedback, we confine the exploration within a subset of random
permutations, where fairness across groups is maintained while the feedback is
still unbiased. Theoretically we prove such a strategy introduces minimum
distortion in OL2R's regret to obtain fairness. Extensive empirical analysis is
performed on two public learning to rank benchmark datasets to demonstrate the
effectiveness of the proposed solution compared to existing fair OL2R
solutions.
- Abstract(参考訳): オンライン・ラーニング・ト・ランク(OL2R)は、オフラインの教師付きランキング・モデル学習に必要な高価なレバレッジ・ラベリングを避けるという利点により、近年大きな研究関心を集めている。
そのような解は未知数(例えば、故意に選択された結果をトップの位置に提示する)を探索し、関連性の推定を改善する。
しかしこれは、OL2Rの期間中に異なる種類のアイテムが異なる治療を受ける可能性があるという、ランキングフェアネスに関する懸念を引き起こす。
しかし、既存の公正ランキングソリューションは、通常、結果の妥当性の知識や、OL2Rの設定と矛盾するパフォーマンスローダを必要とするため、公正性を保証するために直接適用することはできない。
本稿では,ol2rにおける集団曝露によって定義される公平性を達成するための汎用フレームワークを提案する。
鍵となる考え方は、公正性制御、関連学習、オンラインランキング品質のための探索と搾取を校正することである。
特に、モデルが関連性フィードバックの結果の集合を探索する場合、ランダムな置換のサブセット内で探索を限定し、フィードバックが不偏である間にグループ間の公平性が維持される。
理論的には、このような戦略は、公平性を得るためのOL2Rの後悔に最小の歪みをもたらす。
既存のフェアOL2Rソリューションと比較して,提案ソリューションの有効性を示すために,ベンチマークデータセットをランク付けする2つの公開学習において,大規模な実証分析を行う。
関連論文リスト
- FairLoRA: Unpacking Bias Mitigation in Vision Models with Fairness-Driven Low-Rank Adaptation [3.959853359438669]
低ランク適応のための新しいフェアネス特化正規化器であるFairLoRAについて紹介する。
以上の結果から,偏見を緩和するためのより高いランクの必要性は普遍的ではなく,事前学習モデルやデータセット,タスクといった要因に依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-22T18:50:36Z) - Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Equal Opportunity of Coverage in Fair Regression [50.76908018786335]
我々は、予測の不確実性の下で公正な機械学習(ML)を研究し、信頼性と信頼性のある意思決定を可能にする。
本研究は,(1)類似した結果の異なる集団に対するカバー率が近いこと,(2)人口全体のカバー率が一定水準にあること,の2つの特性を達成することを目的としたカバーの平等機会(EOC)を提案する。
論文 参考訳(メタデータ) (2023-11-03T21:19:59Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Neural Ranking Models Online from Implicit User Feedback [40.40829575021796]
我々は,ユーザの暗黙のフィードバック(クリックなど)から,リアルタイムで収集したニューラルネットワークのランキングモデルを学ぶことを提案する。
RankNetとLambdaRankに注力しています。
論文 参考訳(メタデータ) (2022-01-17T23:11:39Z) - Incentives for Item Duplication under Fair Ranking Policies [69.14168955766847]
重複が存在する場合の様々な公正ランキングポリシーの振る舞いについて検討する。
適合性にのみ焦点を絞った政策よりも、重複を動機付ける可能性を秘めているため、公正を意識したランキングポリシーは多様性と矛盾する可能性がある。
論文 参考訳(メタデータ) (2021-10-29T11:11:15Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - PairRank: Online Pairwise Learning to Rank by Divide-and-Conquer [35.199462901346706]
オンラインモデルランキングのペアワイズ学習を推定することを提案する。
各ラウンドにおいて、候補文書を分割して、推定された対位順に対するモデルの信頼度に応じてランク付けする。
オンラインソリューションの理論的収束と期待されたランキングパフォーマンスを結びつける、誤った順序付けされたペアの数で直接定義された後悔が証明される。
論文 参考訳(メタデータ) (2021-02-28T01:16:55Z) - Fairness Through Regularization for Learning to Rank [33.52974791836553]
本稿では,二項分類から文脈のランク付けのための学習への多くの公平性の概念の伝達方法を示す。
我々の形式主義は、証明可能な一般化保証を伴う公正目標を組み込む方法の設計を可能にする。
論文 参考訳(メタデータ) (2021-02-11T13:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。