論文の概要: FairRec: Fairness Testing for Deep Recommender Systems
- arxiv url: http://arxiv.org/abs/2304.07030v1
- Date: Fri, 14 Apr 2023 09:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 14:07:35.175183
- Title: FairRec: Fairness Testing for Deep Recommender Systems
- Title(参考訳): fairrec: 深いレコメンデーションシステムのためのフェアネステスト
- Authors: Huizhong Guo, Jinfeng Li, Jingyi Wang, Xiangyu Liu, Dongxia Wang,
Zehong Hu, Rong Zhang and Hui Xue
- Abstract要約: 本稿では,ディープラーニングに基づく推薦システムの公平性テストを支援する統一フレームワークを提案する。
また,新たな課題に取り組むために,検索に基づく新しい効率的なテスト手法を提案する。
- 参考スコア(独自算出の注目度): 21.420524191767335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based recommender systems (DRSs) are increasingly and widely
deployed in the industry, which brings significant convenience to people's
daily life in different ways. However, recommender systems are also shown to
suffer from multiple issues,e.g., the echo chamber and the Matthew effect, of
which the notation of "fairness" plays a core role.While many fairness
notations and corresponding fairness testing approaches have been developed for
traditional deep classification models, they are essentially hardly applicable
to DRSs. One major difficulty is that there still lacks a systematic
understanding and mapping between the existing fairness notations and the
diverse testing requirements for deep recommender systems, not to mention
further testing or debugging activities. To address the gap, we propose
FairRec, a unified framework that supports fairness testing of DRSs from
multiple customized perspectives, e.g., model utility, item diversity, item
popularity, etc. We also propose a novel, efficient search-based testing
approach to tackle the new challenge, i.e., double-ended discrete particle
swarm optimization (DPSO) algorithm, to effectively search for hidden fairness
issues in the form of certain disadvantaged groups from a vast number of
candidate groups. Given the testing report, by adopting a simple re-ranking
mitigation strategy on these identified disadvantaged groups, we show that the
fairness of DRSs can be significantly improved. We conducted extensive
experiments on multiple industry-level DRSs adopted by leading companies. The
results confirm that FairRec is effective and efficient in identifying the
deeply hidden fairness issues, e.g., achieving 95% testing accuracy with half
to 1/8 time.
- Abstract(参考訳): ディープラーニングベースのレコメンデータシステム(DRS)は、業界にますます広く導入され、人々の日常生活に様々な方法で大きな利便性をもたらす。
しかし、レコメンダシステムは、例えばエコーチャンバーやマシュー効果といった、"フェアネス"という表記が中心的な役割を担う複数の問題に悩まされることも示されており、多くのフェアネス表記法やそれに対応するフェアネス試験法が従来の深層分類モデルで開発されているが、基本的にはDSSには適用できない。
最大の難点は、既存のフェアネス表記法と、より深い推奨システムに対する多様なテスト要件との間には、まだ体系的な理解とマッピングが欠けていることです。
このギャップに対処するため、FairRecは複数のカスタマイズされた視点、例えばモデルユーティリティ、アイテムの多様性、アイテムの人気度などから、DSSの公平性テストをサポートする統合フレームワークである。
また,新しい課題,すなわちdpso(double-ended discrete particle swarm optimization)アルゴリズムに対処し,多数の候補グループから特定の不利なグループによって隠れた公正問題を効果的に探索するための,新しい効率的な検索ベーステスト手法を提案する。
テスト報告から,これらの不利なグループに対する簡易な緩和戦略を採用することで,DSSの公平性を大幅に改善できることが示唆された。
大手企業が採用する複数の業界レベルのDSSについて広範な実験を行った。
その結果、FairRecは、例えば95%のテスト精度を半分から1/8時間で達成するなど、深く隠された公平性の問題を特定するのに効果的で効率的であることが確認された。
関連論文リスト
- Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - UP5: Unbiased Foundation Model for Fairness-aware Recommendation [37.85639356354137]
本稿では,非現実的Fair-Prompting技術に基づく新しいUnbiased P5(UP5)基盤モデルを提案する。
MovieLens-1M と Insurance の2つの実世界のデータセットで実験が行われた。
その結果、マッチングベースとシーケンシャルベースのフェアネスアウェアレコメンデーションモデルを比較した。
論文 参考訳(メタデータ) (2023-05-20T04:32:59Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Equal Improvability: A New Fairness Notion Considering the Long-term
Impact [27.72859815965265]
EI(Equal Improvability)と呼ばれる新しい公正性の概念を提案する。
EIは、異なるグループ間で拒絶されたサンプルの潜在的受容率を等しくする。
提案したEI正規化アルゴリズムは、EIの観点から公平な分類器を見つけることを奨励することを示す。
論文 参考訳(メタデータ) (2022-10-13T04:59:28Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Fairness Testing of Deep Image Classification with Adequacy Metrics [6.559515085944965]
DeepFAITは、ディープイメージ分類アプリケーション用に特別に設計された、系統的な公正性テストフレームワークである。
我々は,VGGFaceやFairFaceといった大規模顔認識アプリケーションに広く採用されている実験を行った。
論文 参考訳(メタデータ) (2021-11-17T01:30:13Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Contrastive Learning for Debiased Candidate Generation in Large-Scale
Recommender Systems [84.3996727203154]
コントラスト損失の一般的な選択は、逆確率重み付けによる露光バイアスの低減と等価であることを示す。
我々はCLRecをさらに改良し、マルチCLRecを提案する。
提案手法は,少なくとも4ヶ月のオンラインA/Bテストとオフライン分析が実施され,大幅に改善されている。
論文 参考訳(メタデータ) (2020-05-20T08:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。