論文の概要: Towards Personalized Fairness based on Causal Notion
- arxiv url: http://arxiv.org/abs/2105.09829v1
- Date: Thu, 20 May 2021 15:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:41:08.707322
- Title: Towards Personalized Fairness based on Causal Notion
- Title(参考訳): 因果表記に基づくパーソナライズドフェアネスに向けて
- Authors: Yunqi Li, Hanxiong Chen, Shuyuan Xu, Yingqiang Ge, Yongfeng Zhang
- Abstract要約: 本稿では,逆学習による対実的公正なレコメンデーションを実現するための枠組みを提案する。
提案手法は,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できる。
- 参考スコア(独自算出の注目度): 18.5897206797918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recommender systems are gaining increasing and critical impacts on human and
society since a growing number of users use them for information seeking and
decision making. Therefore, it is crucial to address the potential unfairness
problems in recommendations. Just like users have personalized preferences on
items, users' demands for fairness are also personalized in many scenarios.
Therefore, it is important to provide personalized fair recommendations for
users to satisfy their personalized fairness demands. Besides, previous works
on fair recommendation mainly focus on association-based fairness. However, it
is important to advance from associative fairness notions to causal fairness
notions for assessing fairness more properly in recommender systems. Based on
the above considerations, this paper focuses on achieving personalized
counterfactual fairness for users in recommender systems. To this end, we
introduce a framework for achieving counterfactually fair recommendations
through adversary learning by generating feature-independent user embeddings
for recommendation. The framework allows recommender systems to achieve
personalized fairness for users while also covering non-personalized
situations. Experiments on two real-world datasets with shallow and deep
recommendation algorithms show that our method can generate fairer
recommendations for users with a desirable recommendation performance.
- Abstract(参考訳): レコメンダシステムは、情報検索や意思決定に使用するユーザが増えているため、人間と社会にますます大きな影響を与えています。
したがって、勧告における潜在的不公平の問題に対処することが不可欠である。
ユーザーがアイテムにパーソナライズされた好みを持っているように、公正に対するユーザーの要求も多くのシナリオでパーソナライズされる。
したがって、パーソナライズされた公平さ要求を満たすために、ユーザにパーソナライズされた公正な推奨を提供することが重要である。
さらに、以前のフェアレコメンデーションの研究は、主に協会ベースのフェアネスに焦点を当てている。
しかし、コメンテーターシステムにおいて、より適切に公正を評価するためには、連想公正概念から因果公正概念へと進むことが重要である。
本研究は,レコメンデーションシステムにおけるユーザに対して,パーソナライズされたカウンターファクトフェアネスを実現することに焦点を当てる。
そこで本研究では,機能非依存のユーザ埋め込み生成による敵意学習による反則的公正なレコメンデーションを実現するためのフレームワークを提案する。
このフレームワークにより、レコメンダシステムは、非パーソナライズされた状況をカバーすると同時に、ユーザに対してパーソナライズされた公平性を達成することができる。
提案手法は,提案手法により,推奨性能の高いユーザに対して,より公平なレコメンデーションを生成できることを示す。
関連論文リスト
- A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - A Graph-based Approach for Mitigating Multi-sided Exposure Bias in
Recommender Systems [7.3129791870997085]
FairMatchは、アイテムやサプライヤーの露出公正性を改善するグラフベースのアルゴリズムである。
2つのデータセットに関する包括的な実験と最先端のベースラインとの比較により、FairMatchは露出公正性と集約多様性を大幅に改善する一方で、レコメンデーションの許容レベルを維持している。
論文 参考訳(メタデータ) (2021-07-07T18:01:26Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - Fairness and Transparency in Recommendation: The Users' Perspective [14.830700792215849]
公平性認識型レコメンダーシステムのユーザ視点について考察する。
フェアネス対応レコメンダーシステムのユーザ理解と信頼を向上させる3つの機能を提案します。
論文 参考訳(メタデータ) (2021-03-16T00:42:09Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z) - Exploring User Opinions of Fairness in Recommender Systems [13.749884072907163]
ユーザーが推奨する公平な待遇の考えは何なのかを尋ねる。
公平性に対するユーザの意見の相違や変化の原因となるものを分析する。
論文 参考訳(メタデータ) (2020-03-13T19:44:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。