論文の概要: FairRoad: Achieving Fairness for Recommender Systems with Optimized
Antidote Data
- arxiv url: http://arxiv.org/abs/2212.06750v1
- Date: Tue, 13 Dec 2022 17:32:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 15:49:03.192346
- Title: FairRoad: Achieving Fairness for Recommender Systems with Optimized
Antidote Data
- Title(参考訳): fairroad: アンチドートデータを最適化したレコメンダシステムのための公平性の実現
- Authors: Minghong Fang, Jia Liu, Michinari Momma, Yi Sun
- Abstract要約: 我々は、最適化された解毒剤データ(FairRoad)を用いたフェアレコメンデーションと呼ばれる新しいアプローチを提案する。
提案する解毒剤データ生成アルゴリズムは,少量の解毒剤データを用いたレコメンデータシステムの公正性を著しく向上する。
- 参考スコア(独自算出の注目度): 15.555228739298045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, recommender systems have played an increasingly important role in
shaping our experiences of digital environments and social interactions.
However, as recommender systems become ubiquitous in our society, recent years
have also witnessed significant fairness concerns for recommender systems.
Specifically, studies have shown that recommender systems may inherit or even
amplify biases from historical data, and as a result, provide unfair
recommendations. To address fairness risks in recommender systems, most of the
previous approaches to date are focused on modifying either the existing
training data samples or the deployed recommender algorithms, but unfortunately
with limited degrees of success. In this paper, we propose a new approach
called fair recommendation with optimized antidote data (FairRoad), which aims
to improve the fairness performances of recommender systems through the
construction of a small and carefully crafted antidote dataset. Toward this
end, we formulate our antidote data generation task as a mathematical
optimization problem, which minimizes the unfairness of the targeted
recommender systems while not disrupting the deployed recommendation
algorithms. Extensive experiments show that our proposed antidote data
generation algorithm significantly improve the fairness of recommender systems
with a small amounts of antidote data.
- Abstract(参考訳): 今日では、レコメンダシステムは、デジタル環境や社会的相互作用の体験を形作る上で、ますます重要な役割を担っている。
しかし,我々の社会では,レコメンダシステムが普及するにつれて,近年,レコメンダシステムに対する公平性に対する懸念が高まっている。
具体的には、リコメンデーターシステムは歴史的データからバイアスを継承または増幅し、結果として不公平なレコメンデーションを提供することを示した。
推奨システムの公正性リスクに対処するため、これまでのアプローチのほとんどは、既存のトレーニングデータサンプルまたはデプロイされた推奨アルゴリズムの変更に重点を置いているが、残念ながら成功の度合いは限られている。
本稿では,小型かつ精巧に構築された解毒剤データセットの構築を通じて,レコメンダシステムの公正性を向上させることを目的とした,最適化解毒剤データ(fairroad)を用いたfairroadと呼ばれる新しいアプローチを提案する。
この目的のために,本論文では,提案アルゴリズムを乱すことなく,対象とするレコメンデータシステムの不公平さを最小限に抑える数学的最適化問題として,解答データ生成タスクを定式化する。
広範な実験により,提案手法は少量の解毒剤データを用いてレコメンダシステムの公平性を大幅に改善することを示した。
関連論文リスト
- Correcting for Popularity Bias in Recommender Systems via Item Loss Equalization [1.7771454131646311]
人気アイテムの小さなセットが、高い相互作用率のために推奨結果を支配している。
この現象は、ニッチな興味のある人を無視しながら、メインストリームの趣味を持つユーザーに不当に利益をもたらす。
本稿では,推薦モデルのトレーニングプロセスに介入することで,この問題に対処するプロセス内アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T08:34:18Z) - A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - CPFair: Personalized Consumer and Producer Fairness Re-ranking for
Recommender Systems [5.145741425164946]
本稿では,消費者側と生産側の両方から公平性制約をシームレスに統合する最適化に基づく再ランク付け手法を提案する。
提案手法は, 消費者と生産者の公正性を両立させ, 全体的な推奨品質を低下させることなく向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-17T20:38:02Z) - Membership Inference Attacks Against Recommender Systems [33.66394989281801]
我々は,会員推論のレンズを用いて,レコメンデータシステムのプライバシー漏洩を定量化するための最初の試みを行う。
私たちの攻撃はユーザレベルにありますが、データサンプルレベルではありません。
シャドーレコメンデータは、ラベル付きトレーニングデータを導出し、攻撃モデルを訓練する。
論文 参考訳(メタデータ) (2021-09-16T15:19:19Z) - Knowledge Transfer via Pre-training for Recommendation: A Review and
Prospect [89.91745908462417]
実験による推薦システムに対する事前学習の利点を示す。
事前学習を伴うレコメンデータシステムの今後の研究に向けて,いくつかの将来的な方向性について論じる。
論文 参考訳(メタデータ) (2020-09-19T13:06:27Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - A Survey on Knowledge Graph-Based Recommender Systems [65.50486149662564]
我々は知識グラフに基づく推薦システムの体系的な調査を行う。
論文は、知識グラフを正確かつ説明可能なレコメンデーションにどのように活用するかに焦点を当てる。
これらの作業で使用されるデータセットを紹介します。
論文 参考訳(メタデータ) (2020-02-28T02:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。