論文の概要: Improving Recommendation Fairness via Data Augmentation
- arxiv url: http://arxiv.org/abs/2302.06333v1
- Date: Mon, 13 Feb 2023 13:11:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 15:40:00.516131
- Title: Improving Recommendation Fairness via Data Augmentation
- Title(参考訳): データ拡張によるレコメンデーションフェアネスの改善
- Authors: Lei Chen, Le Wu, Kun Zhang, Richang Hong, Defu Lian, Zhiqiang Zhang,
Jun Zhou, Meng Wang
- Abstract要約: 協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
- 参考スコア(独自算出の注目度): 66.4071365614835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative filtering based recommendation learns users' preferences from
all users' historical behavior data, and has been popular to facilitate
decision making. R Recently, the fairness issue of recommendation has become
more and more essential. A recommender system is considered unfair when it does
not perform equally well for different user groups according to users'
sensitive attributes~(e.g., gender, race). Plenty of methods have been proposed
to alleviate unfairness by optimizing a predefined fairness goal or changing
the distribution of unbalanced training data. However, they either suffered
from the specific fairness optimization metrics or relied on redesigning the
current recommendation architecture. In this paper, we study how to improve
recommendation fairness from the data augmentation perspective. The
recommendation model amplifies the inherent unfairness of imbalanced training
data. We augment imbalanced training data towards balanced data distribution to
improve fairness. The proposed framework is generally applicable to any
embedding-based recommendation, and does not need to pre-define a fairness
metric. Extensive experiments on two real-world datasets clearly demonstrate
the superiority of our proposed framework. We publish the source code at
https://github.com/newlei/FDA.
- Abstract(参考訳): 協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
R 最近、推薦の公平性の問題がますます重要になっている。
レコメンダシステムは、ユーザの繊細な属性(例えば、性別、人種)に応じて異なるユーザグループに対して等しく機能しない場合、不公平とみなされる。
事前定義された公平性の目標を最適化したり、不均衡なトレーニングデータの分布を変更して不公平を緩和する手法が多数提案されている。
しかし、彼らは特定の公正度最適化のメトリクスに悩まされたり、現在のレコメンデーションアーキテクチャの再設計に頼っていた。
本稿では,データ拡張の観点からレコメンデーションフェアネスを改善する方法について検討する。
このレコメンデーションモデルは、不均衡なトレーニングデータの本質的不公平性を増幅する。
不均衡なトレーニングデータをバランスの取れたデータ分布に拡張し、公平性を向上する。
提案フレームワークは一般に埋め込みベースのレコメンデーションに適用でき、公平度メトリックを事前に定義する必要はない。
2つの実世界のデータセットに対する大規模な実験は、提案フレームワークの優位性を明確に示している。
ソースコードはhttps://github.com/newlei/FDAで公開しています。
関連論文リスト
- Boosting Fair Classifier Generalization through Adaptive Priority
Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - FairRoad: Achieving Fairness for Recommender Systems with Optimized
Antidote Data [15.555228739298045]
我々は、最適化された解毒剤データ(FairRoad)を用いたフェアレコメンデーションと呼ばれる新しいアプローチを提案する。
提案する解毒剤データ生成アルゴリズムは,少量の解毒剤データを用いたレコメンデータシステムの公正性を著しく向上する。
論文 参考訳(メタデータ) (2022-12-13T17:32:44Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Bias-Tolerant Fair Classification [20.973916494320246]
ラベルバイアスと選択バイアスは、機械学習の結果の公平性を妨げるデータにおける2つの理由である。
本稿では,ラベルバイアスと選択バイアスの影響を受けるデータを用いて,利益を回復しようとするBias-TolerantFAirRegularizedLoss (B-FARL)を提案する。
B-FARLはバイアスデータを入力として取り、公正だが潜伏的なデータで訓練されたデータを近似したモデルを呼び出す。
論文 参考訳(メタデータ) (2021-07-07T13:31:38Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。