論文の概要: User Fairness, Item Fairness, and Diversity for Rankings in Two-Sided
Markets
- arxiv url: http://arxiv.org/abs/2010.01470v3
- Date: Sun, 12 Sep 2021 13:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:58:31.250244
- Title: User Fairness, Item Fairness, and Diversity for Rankings in Two-Sided
Markets
- Title(参考訳): 両サイドマーケットにおけるユーザフェアネス、アイテムフェアネス、ランキングの多様性
- Authors: Lequn Wang and Thorsten Joachims
- Abstract要約: ユーザフェアネス、アイテムフェアネス、多様性は根本的に異なる概念であることを示す。
3つのデシラタを明示的に強制する最初のランク付けアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 28.537935838669423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ranking items by their probability of relevance has long been the goal of
conventional ranking systems. While this maximizes traditional criteria of
ranking performance, there is a growing understanding that it is an
oversimplification in online platforms that serve not only a diverse user
population, but also the producers of the items. In particular, ranking
algorithms are expected to be fair in how they serve all groups of users -- not
just the majority group -- and they also need to be fair in how they divide
exposure among the items. These fairness considerations can partially be met by
adding diversity to the rankings, as done in several recent works. However, we
show in this paper that user fairness, item fairness and diversity are
fundamentally different concepts. In particular, we find that algorithms that
consider only one of the three desiderata can fail to satisfy and even harm the
other two. To overcome this shortcoming, we present the first ranking algorithm
that explicitly enforces all three desiderata. The algorithm optimizes user and
item fairness as a convex optimization problem which can be solved optimally.
From its solution, a ranking policy can be derived via a novel Birkhoff-von
Neumann decomposition algorithm that optimizes diversity. Beyond the
theoretical analysis, we investigate empirically on a new benchmark dataset how
effectively the proposed ranking algorithm can control user fairness, item
fairness and diversity, as well as the trade-offs between them.
- Abstract(参考訳): 関連性の確率で項目をランク付けすることが、従来型のランキングシステムの目標であった。
これは従来のランキングの基準を最大化するが、多様なユーザー人口だけでなく、商品の制作者にも役立てるオンラインプラットフォームでは過度に単純化されているという理解が高まりつつある。
特に、ランキングアルゴリズムは、多数派だけでなく、すべてのユーザーグループにどのように奉仕するかという点で公平であることが期待されている。
これらの公平性の考慮は、最近のいくつかの作品のように、ランキングに多様性を加えることで部分的に満たすことができる。
しかし,本稿では,ユーザフェアネス,アイテムフェアネス,多様性が根本的に異なる概念であることを示す。
特に、3つのデシダラタのうち1つしか考慮していないアルゴリズムは、他の2つを満足させることができず、害することもある。
この欠点を克服するため、3つのデシラタを明示的に強制する最初のランキングアルゴリズムを提案する。
このアルゴリズムは、最適に解ける凸最適化問題として、ユーザとアイテムの公平性を最適化する。
その解法から、多様性を最適化する新しいバーホフ・ヴォン・ノイマン分解アルゴリズムによってランク付けポリシーを導出することができる。
理論的解析の他に,提案したランキングアルゴリズムがユーザフェアネス,アイテムフェアネス,多様性,さらにはそれらの間のトレードオフを効果的に制御できることを示す。
関連論文リスト
- Fairness in Ranking under Disparate Uncertainty [24.401219403555814]
我々は、基礎となる関連モデルの不確実性がオプション群間で異なる場合、ランク付けは不公平をもたらす可能性があると論じる。
ランク付けのための新しい公正基準として平等ランク付け(EOR)を提案する。
異なる不確実性が存在する場合でも、EORは関連する選択肢の中でグループワイドフェア・宝くじに対応していることを示す。
論文 参考訳(メタデータ) (2023-09-04T13:49:48Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Detection of Groups with Biased Representation in Ranking [28.095668425175564]
上位ランクの項目に偏りのある群を検出する問題について検討する。
2つの異なる公正度尺度に対する効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-30T10:50:02Z) - Fast online ranking with fairness of exposure [29.134493256287072]
このアルゴリズムは計算が高速で、ソート演算が支配的であり、メモリ効率が良く、理論的な保証も強いことを示します。
ユーザ側のパフォーマンスを最大化する基本方針と比較して,提案アルゴリズムは,計算オーバーヘッドが無視できるような推奨事項に,露出基準の複雑な公平性を組み込むことができる。
論文 参考訳(メタデータ) (2022-09-13T12:35:36Z) - Counterfactual Fairness Is Basically Demographic Parity [0.0]
公正な意思決定は、倫理的に機械学習アルゴリズムを社会的設定で実装する上で重要である。
また, 対実的公正性を満たすアルゴリズムが, 人口統計学的平等を満足することを示す。
我々は、保護グループ内の個人の秩序を維持するという具体的な公正目標を定式化する。
論文 参考訳(メタデータ) (2022-08-07T23:38:59Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Incentives for Item Duplication under Fair Ranking Policies [69.14168955766847]
重複が存在する場合の様々な公正ランキングポリシーの振る舞いについて検討する。
適合性にのみ焦点を絞った政策よりも、重複を動機付ける可能性を秘めているため、公正を意識したランキングポリシーは多様性と矛盾する可能性がある。
論文 参考訳(メタデータ) (2021-10-29T11:11:15Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Controlling Fairness and Bias in Dynamic Learning-to-Rank [31.41843594914603]
暗黙のフィードバックデータからランキング関数を学習しながら、グループフェアネスの概念を確実にする学習アルゴリズムを提案する。
このアルゴリズムは、公平さと実用性の両方のために、偏見のない推定器を統合するコントローラの形をとっている。
厳密な理論基盤と収束保証に加えて、アルゴリズムが極めて実用的で堅牢であることが実証的に明らかになった。
論文 参考訳(メタデータ) (2020-05-29T17:57:56Z) - SetRank: A Setwise Bayesian Approach for Collaborative Ranking from
Implicit Feedback [50.13745601531148]
提案手法は,提案システムにおける暗黙的フィードバックの特性に対応するために,協調的ランキング(SeetRank)のためのセッティングワイドベイズ的手法を提案する。
具体的には、SetRankは、新しい設定された選好比較の後方確率を最大化することを目的としている。
また、SetRankの理論解析により、余剰リスクの境界が$sqrtM/N$に比例できることを示す。
論文 参考訳(メタデータ) (2020-02-23T06:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。