論文の概要: Optimizing generalized Gini indices for fairness in rankings
- arxiv url: http://arxiv.org/abs/2204.06521v2
- Date: Thu, 14 Apr 2022 09:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-17 08:39:12.992240
- Title: Optimizing generalized Gini indices for fairness in rankings
- Title(参考訳): ランクの公平性に対する一般化されたジーニ指標の最適化
- Authors: Virginie Do and Nicolas Usunier
- Abstract要約: 本稿では,推奨システムに最適化すべき規範的基準を規定する手段として,一般化されたジニ福祉機能(GGF)の利用について検討する。
これらの重みによって、GGFはアイテム露光のギニ指数を最小化し、アイテム間の平等を促進したり、満足度の低い特定の量子化に注目する。
我々は,最大15万のユーザと項目からなる実データセットを用いた実験を行い,提案手法は,さまざまな推奨タスクや公正度基準に基づく基準よりも優れたトレードオフが得られることを示す。
- 参考スコア(独自算出の注目度): 21.17126614037989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is growing interest in designing recommender systems that aim at being
fair towards item producers or their least satisfied users. Inspired by the
domain of inequality measurement in economics, this paper explores the use of
generalized Gini welfare functions (GGFs) as a means to specify the normative
criterion that recommender systems should optimize for. GGFs weight individuals
depending on their ranks in the population, giving more weight to worse-off
individuals to promote equality. Depending on these weights, GGFs minimize the
Gini index of item exposure to promote equality between items, or focus on the
performance on specific quantiles of least satisfied users. GGFs for ranking
are challenging to optimize because they are non-differentiable. We resolve
this challenge by leveraging tools from non-smooth optimization and projection
operators used in differentiable sorting. We present experiments using real
datasets with up to 15k users and items, which show that our approach obtains
better trade-offs than the baselines on a variety of recommendation tasks and
fairness criteria.
- Abstract(参考訳): 商品生産者や未満足のユーザを公平に対象とするレコメンデーションシステムの設計への関心が高まっている。
経済学における不平等測定の領域に触発された本論文では,推奨システムが最適化すべき規範的基準を特定する手段として,一般化されたジニ福祉機能(GGF)の利用について検討する。
GGFは人口の階級によって個人を重くし、平等を促進するために悪質な個人に重みを与える。
これらの重みによって、GGFはアイテム露光のギニ指数を最小化し、アイテム間の平等を促進したり、満足度の低い特定の量子化に注目する。
ランク付けのためのGGFは、差別化できないため最適化が難しい。
我々は,微分可能ソートに使用される非スムース最適化と投影演算子のツールを活用することで,この課題を解決した。
提案手法は,最大15万のユーザとアイテムの実際のデータセットを用いて実験を行い,様々なレコメンデーションタスクや公正基準のベースラインよりも優れたトレードオフが得られることを示す。
関連論文リスト
- GRAPHGINI: Fostering Individual and Group Fairness in Graph Neural
Networks [17.539327573240488]
本稿では,GNNフレームワーク内で用いられる公平性の尺度として,Gini係数を組み込む手法を初めて紹介する。
我々の提案であるGRAPHGINIは、単一システムにおける個人とグループフェアネスの2つの異なる目標に対処する。
論文 参考訳(メタデータ) (2024-02-20T11:38:52Z) - Learning Fair Ranking Policies via Differentiable Optimization of
Ordered Weighted Averages [55.04219793298687]
本稿では,学習からランクへの学習ループに,効率よく解ける公正ランキングモデルを組み込む方法について述べる。
特に,本論文は,OWA目標の制約された最適化を通じてバックプロパゲーションを行う方法を示す最初のものである。
論文 参考訳(メタデータ) (2024-02-07T20:53:53Z) - Boosting Fair Classifier Generalization through Adaptive Priority
Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Fast online ranking with fairness of exposure [29.134493256287072]
このアルゴリズムは計算が高速で、ソート演算が支配的であり、メモリ効率が良く、理論的な保証も強いことを示します。
ユーザ側のパフォーマンスを最大化する基本方針と比較して,提案アルゴリズムは,計算オーバーヘッドが無視できるような推奨事項に,露出基準の複雑な公平性を組み込むことができる。
論文 参考訳(メタデータ) (2022-09-13T12:35:36Z) - Ordinal Graph Gamma Belief Network for Social Recommender Systems [54.9487910312535]
我々は,階層型ベイズモデルであるオーディナルグラフファクター解析(OGFA)を開発し,ユーザ・イテムとユーザ・ユーザインタラクションを共同でモデル化する。
OGFAは、優れたレコメンデーションパフォーマンスを達成するだけでなく、代表ユーザの好みに応じた解釈可能な潜在因子も抽出する。
我々はOGFAを,マルチ確率層深層確率モデルであるオーディナルグラフガンマ信念ネットワークに拡張する。
論文 参考訳(メタデータ) (2022-09-12T09:19:22Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - Probabilistic Permutation Graph Search: Black-Box Optimization for
Fairness in Ranking [53.94413894017409]
本稿では、置換グラフの概念に基づいて、置換分布を表現する新しい方法を提案する。
PLと同様に、PPGと呼ばれる分布表現は、公正性のブラックボックス最適化に利用できる。
論文 参考訳(メタデータ) (2022-04-28T20:38:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。