論文の概要: FairRec: Fairness Testing for Deep Recommender Systems
- arxiv url: http://arxiv.org/abs/2304.07030v1
- Date: Fri, 14 Apr 2023 09:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 14:07:35.175183
- Title: FairRec: Fairness Testing for Deep Recommender Systems
- Title(参考訳): fairrec: 深いレコメンデーションシステムのためのフェアネステスト
- Authors: Huizhong Guo, Jinfeng Li, Jingyi Wang, Xiangyu Liu, Dongxia Wang,
Zehong Hu, Rong Zhang and Hui Xue
- Abstract要約: 本稿では,ディープラーニングに基づく推薦システムの公平性テストを支援する統一フレームワークを提案する。
また,新たな課題に取り組むために,検索に基づく新しい効率的なテスト手法を提案する。
- 参考スコア(独自算出の注目度): 21.420524191767335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based recommender systems (DRSs) are increasingly and widely
deployed in the industry, which brings significant convenience to people's
daily life in different ways. However, recommender systems are also shown to
suffer from multiple issues,e.g., the echo chamber and the Matthew effect, of
which the notation of "fairness" plays a core role.While many fairness
notations and corresponding fairness testing approaches have been developed for
traditional deep classification models, they are essentially hardly applicable
to DRSs. One major difficulty is that there still lacks a systematic
understanding and mapping between the existing fairness notations and the
diverse testing requirements for deep recommender systems, not to mention
further testing or debugging activities. To address the gap, we propose
FairRec, a unified framework that supports fairness testing of DRSs from
multiple customized perspectives, e.g., model utility, item diversity, item
popularity, etc. We also propose a novel, efficient search-based testing
approach to tackle the new challenge, i.e., double-ended discrete particle
swarm optimization (DPSO) algorithm, to effectively search for hidden fairness
issues in the form of certain disadvantaged groups from a vast number of
candidate groups. Given the testing report, by adopting a simple re-ranking
mitigation strategy on these identified disadvantaged groups, we show that the
fairness of DRSs can be significantly improved. We conducted extensive
experiments on multiple industry-level DRSs adopted by leading companies. The
results confirm that FairRec is effective and efficient in identifying the
deeply hidden fairness issues, e.g., achieving 95% testing accuracy with half
to 1/8 time.
- Abstract(参考訳): ディープラーニングベースのレコメンデータシステム(DRS)は、業界にますます広く導入され、人々の日常生活に様々な方法で大きな利便性をもたらす。
しかし、レコメンダシステムは、例えばエコーチャンバーやマシュー効果といった、"フェアネス"という表記が中心的な役割を担う複数の問題に悩まされることも示されており、多くのフェアネス表記法やそれに対応するフェアネス試験法が従来の深層分類モデルで開発されているが、基本的にはDSSには適用できない。
最大の難点は、既存のフェアネス表記法と、より深い推奨システムに対する多様なテスト要件との間には、まだ体系的な理解とマッピングが欠けていることです。
このギャップに対処するため、FairRecは複数のカスタマイズされた視点、例えばモデルユーティリティ、アイテムの多様性、アイテムの人気度などから、DSSの公平性テストをサポートする統合フレームワークである。
また,新しい課題,すなわちdpso(double-ended discrete particle swarm optimization)アルゴリズムに対処し,多数の候補グループから特定の不利なグループによって隠れた公正問題を効果的に探索するための,新しい効率的な検索ベーステスト手法を提案する。
テスト報告から,これらの不利なグループに対する簡易な緩和戦略を採用することで,DSSの公平性を大幅に改善できることが示唆された。
大手企業が採用する複数の業界レベルのDSSについて広範な実験を行った。
その結果、FairRecは、例えば95%のテスト精度を半分から1/8時間で達成するなど、深く隠された公平性の問題を特定するのに効果的で効率的であることが確認された。
関連論文リスト
- Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - Learn to be Fair without Labels: a Distribution-based Learning Framework for Fair Ranking [1.8577028544235155]
本研究では,未利用の公正度ラベルを対象の公正度分布に置き換えることにより,ラベルを必要としない分布ベースフェアラーニングフレームワーク(DLF)を提案する。
提案手法は,フェアネス関連トレードオフの制御性を高めつつ,フェアネス性能を向上する。
論文 参考訳(メタデータ) (2024-05-28T03:49:04Z) - A Normative Framework for Benchmarking Consumer Fairness in Large Language Model Recommender System [9.470545149911072]
本稿では,LCMを利用したリコメンデータシステムにおいて,消費者の公正性をベンチマークするための規範的フレームワークを提案する。
このギャップは公平性に関する任意の結論につながる可能性があると我々は主張する。
MovieLensデータセットの消費者の公正性に関する実験は、年齢ベースの推奨において公平さの偏りを明らかにしている。
論文 参考訳(メタデータ) (2024-05-03T16:25:27Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Understanding Biases in ChatGPT-based Recommender Systems: Provider Fairness, Temporal Stability, and Recency [9.882829614199453]
本稿では,ChatGPTに基づく推薦システムにおけるバイアスについて考察し,提供者フェアネス(イテム側フェアネス)に着目した。
最初の実験では、トップK推薦の精度と公平性について、7つの異なるプロンプトシナリオを評価した。
フェアネスを「フェアレコメンデーターとしての行動」のようなシステムの役割に組み込むことは、プロンプト内のフェアネスディレクティブよりも効果的であることが証明された。
論文 参考訳(メタデータ) (2024-01-19T08:09:20Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Equal Improvability: A New Fairness Notion Considering the Long-term
Impact [27.72859815965265]
EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。
EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。
提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
論文 参考訳(メタデータ) (2022-10-13T04:59:28Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Contrastive Learning for Debiased Candidate Generation in Large-Scale
Recommender Systems [84.3996727203154]
コントラスト損失の一般的な選択は、逆確率重み付けによる露光バイアスの低減と等価であることを示す。
我々はCLRecをさらに改良し、マルチCLRecを提案する。
提案手法は,少なくとも4ヶ月のオンラインA/Bテストとオフライン分析が実施され,大幅に改善されている。
論文 参考訳(メタデータ) (2020-05-20T08:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。