論文の概要: Achieving Fairness via Post-Processing in Web-Scale Recommender Systems
- arxiv url: http://arxiv.org/abs/2006.11350v3
- Date: Thu, 11 Aug 2022 06:42:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-19 04:33:51.755563
- Title: Achieving Fairness via Post-Processing in Web-Scale Recommender Systems
- Title(参考訳): Webスケールレコメンダシステムにおける後処理による公正化
- Authors: Preetam Nandy, Cyrus Diciccio, Divya Venugopalan, Heloise Logan,
Kinjal Basu, Noureddine El Karoui
- Abstract要約: フェアネスの定義を推薦システム、すなわち機会の等式と等化確率に拡張する。
そこで我々は,位置バイアスの存在下でのランク付けにおける機会の平等と確率の等化を達成するためのスケーラブルな手法を提案する。
- 参考スコア(独自算出の注目度): 6.5191290612443105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building fair recommender systems is a challenging and crucial area of study
due to its immense impact on society. We extended the definitions of two
commonly accepted notions of fairness to recommender systems, namely equality
of opportunity and equalized odds. These fairness measures ensure that equally
"qualified" (or "unqualified") candidates are treated equally regardless of
their protected attribute status (such as gender or race). We propose scalable
methods for achieving equality of opportunity and equalized odds in rankings in
the presence of position bias, which commonly plagues data generated from
recommender systems. Our algorithms are model agnostic in the sense that they
depend only on the final scores provided by a model, making them easily
applicable to virtually all web-scale recommender systems. We conduct extensive
simulations as well as real-world experiments to show the efficacy of our
approach.
- Abstract(参考訳): 公正なレコメンデーターシステムの構築は、社会に大きな影響を与えるため、困難かつ重要な研究分野である。
一般に受け入れられている2つのフェアネス概念の定義をレコメンデーションシステム、すなわち機会の平等と等化オッズに拡張した。
これらの公平性は、平等に「適格」(または「適格」)な候補者が、保護された属性(性別や人種など)に関係なく平等に扱われることを保証する。
提案手法は,レコメンダシステムから生成されるデータに共通する位置バイアスの存在下での,オッズとオッズの均等性を実現するためのスケーラブルな手法を提案する。
我々のアルゴリズムは、モデルが提供する最終的なスコアにのみ依存するという意味で、モデルに依存しないため、事実上全てのWebスケールレコメンデータシステムに容易に適用できる。
我々は,本手法の有効性を示すために,実世界実験と同様に広範なシミュレーションを行う。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - "And the Winner Is...": Dynamic Lotteries for Multi-group Fairness-Aware
Recommendation [37.35485045640196]
我々は、以前の文献は単純で一様であり、フェアネスの仮定の単次元の概念に基づいていたと論じる。
私たちは、多元的定義と交差する保護されたグループ間の正確性と公平性の間のトレードオフに参入する設計上の決定を明確に表現します。
公正な関心事を選択するための宝くじに基づくメカニズムを定式化し、その性能を2つの推奨領域で実証する。
論文 参考訳(メタデータ) (2020-09-05T20:15:14Z) - HyperFair: A Soft Approach to Integrating Fairness Criteria [17.770533330914102]
我々は,ハイブリッドレコメンデータシステムにおいて,ソフトフェアネス制約を強制するフレームワークであるHyperFairを紹介する。
まず,確率的ソフトロジックレコメンデータシステムテンプレートの拡張として提案する手法を提案する。
複数のHyperFairハイブリッドレコメンデータを実装することで,私たちのアプローチを実証的に検証し,最先端のフェアレコメンデータと比較する。
論文 参考訳(メタデータ) (2020-09-05T05:00:06Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Opportunistic Multi-aspect Fairness through Personalized Re-ranking [5.8562079474220665]
複数の公正度次元にわたる個人の嗜好を学習するフェアネス・アウェア・レコメンデーションに対する再ランクのアプローチを提案する。
我々は,我々の正当性とメートル法に依存しないアプローチが,従来よりも正確性と公平性の間のトレードオフを良好に達成していることを示す。
論文 参考訳(メタデータ) (2020-05-21T04:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。