論文の概要: Fairness for Robust Learning to Rank
- arxiv url: http://arxiv.org/abs/2112.06288v1
- Date: Sun, 12 Dec 2021 17:56:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 16:29:23.657249
- Title: Fairness for Robust Learning to Rank
- Title(参考訳): ランキングへのロバスト学習の公正性
- Authors: Omid Memarrast, Ashkan Rezaei, Rizal Fathony, Brian Ziebart
- Abstract要約: 分布ロバストネスの第一原理に基づく新しいランキング体系を導出する。
提案手法は,既存のベースライン手法よりも,公平なランク付けに有効であることを示す。
- 参考スコア(独自算出の注目度): 8.019491256870557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While conventional ranking systems focus solely on maximizing the utility of
the ranked items to users, fairness-aware ranking systems additionally try to
balance the exposure for different protected attributes such as gender or race.
To achieve this type of group fairness for ranking, we derive a new ranking
system based on the first principles of distributional robustness. We formulate
a minimax game between a player choosing a distribution over rankings to
maximize utility while satisfying fairness constraints against an adversary
seeking to minimize utility while matching statistics of the training data. We
show that our approach provides better utility for highly fair rankings than
existing baseline methods.
- Abstract(参考訳): 従来のランキングシステムは、利用者に対するランキング項目の有効性を最大化することだけに重点を置いているが、公正を意識したランキングシステムは、性別や人種などの異なる保護属性に対する露出のバランスを取る。
このようなグループフェアネスをランク付けするために,分布ロバストネスの第一原理に基づく新しいランキングシステムを提案する。
トレーニングデータの統計値に適合しながら、実用性を最小化しようとする相手に対する公正制約を満たしつつ、ランキングよりも分布を選択するプレイヤー間でミニマックスゲームを定式化する。
本手法は,既存のベースライン手法よりも公平なランク付けに優れた有用性を示す。
関連論文リスト
- Fairness in Ranking: Robustness through Randomization without the Protected Attribute [15.086941303164375]
本稿では,保護属性の可用性を必要とせず,列挙後処理のランダム化手法を提案する。
本研究では,P-FairnessとNDCG(正規化非カウント累積ゲイン)に関して,提案手法のロバスト性を示し,従来提案されていた手法を改良した。
論文 参考訳(メタデータ) (2024-03-28T13:50:24Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - A Minimaximalist Approach to Reinforcement Learning from Human Feedback [49.45285664482369]
人間のフィードバックから強化学習を行うアルゴリズムとして,SPO(Self-Play Preference Optimization)を提案する。
我々のアプローチは、報酬モデルや不安定な敵の訓練を必要としないという点で最小主義である。
我々は,一連の継続的制御タスクにおいて,報酬モデルに基づくアプローチよりもはるかに効率的に学習できることを実証した。
論文 参考訳(メタデータ) (2024-01-08T17:55:02Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - End-to-end Learning for Fair Ranking Systems [44.82771494830451]
本稿では,SPOFR(Smart Predict and Optimize for Fair Ranking)を紹介する。
SPOFRは、公平性に制約された学習をランク付けするための統合最適化および学習フレームワークである。
確立された性能指標に関して、最先端の公正学習システムを大幅に改善することが示されている。
論文 参考訳(メタデータ) (2021-11-21T03:25:04Z) - Individually Fair Ranking [23.95661284311917]
個別に公平な学習からランクへのモデルを訓練するアルゴリズムを開発した。
提案手法では,少数グループの項目が多数派からの類似項目とともに現れることを保証する。
論文 参考訳(メタデータ) (2021-03-19T21:17:11Z) - Fairness Through Regularization for Learning to Rank [33.52974791836553]
本稿では,二項分類から文脈のランク付けのための学習への多くの公平性の概念の伝達方法を示す。
我々の形式主義は、証明可能な一般化保証を伴う公正目標を組み込む方法の設計を可能にする。
論文 参考訳(メタデータ) (2021-02-11T13:29:08Z) - On the Problem of Underranking in Group-Fair Ranking [8.963918049835375]
ランク付けシステムのバイアスは、社会的・経済的不平等を悪化させ、意見を分極し、ステレオタイプを強化する。
本稿では,グループフェアランキングにおける下位ランクの問題について定式化する。
任意のランク付けを行い、同時にランク付けとグループフェアネスを保証した別のランク付けを出力する公平なランク付けアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-24T14:56:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。