論文の概要: Fairness-Aware Explainable Recommendation over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2006.02046v2
- Date: Sun, 28 Jun 2020 02:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:28:54.719167
- Title: Fairness-Aware Explainable Recommendation over Knowledge Graphs
- Title(参考訳): 知識グラフに対するフェアネスを考慮した説明可能な勧告
- Authors: Zuohui Fu, Yikun Xian, Ruoyuan Gao, Jieyu Zhao, Qiaoying Huang,
Yingqiang Ge, Shuyuan Xu, Shijie Geng, Chirag Shah, Yongfeng Zhang, Gerard de
Melo
- Abstract要約: ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
- 参考スコア(独自算出の注目度): 73.81994676695346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been growing attention on fairness considerations recently,
especially in the context of intelligent decision making systems. Explainable
recommendation systems, in particular, may suffer from both explanation bias
and performance disparity. In this paper, we analyze different groups of users
according to their level of activity, and find that bias exists in
recommendation performance between different groups. We show that inactive
users may be more susceptible to receiving unsatisfactory recommendations, due
to insufficient training data for the inactive users, and that their
recommendations may be biased by the training records of more active users, due
to the nature of collaborative filtering, which leads to an unfair treatment by
the system. We propose a fairness constrained approach via heuristic re-ranking
to mitigate this unfairness problem in the context of explainable
recommendation over knowledge graphs. We experiment on several real-world
datasets with state-of-the-art knowledge graph-based explainable recommendation
algorithms. The promising results show that our algorithm is not only able to
provide high-quality explainable recommendations, but also reduces the
recommendation unfairness in several respects.
- Abstract(参考訳): 近年,知的な意思決定システムの文脈において,公平性への配慮が注目されている。
特に説明可能なレコメンデーションシステムは、説明バイアスと性能格差の両方に苦しむ可能性がある。
本稿では,ユーザの行動レベルに応じて異なるグループを解析し,異なるグループ間での推薦性能にバイアスが存在することを明らかにする。
不アクティブなユーザは、不アクティブなユーザのためのトレーニングデータ不足により、不十分な推奨を受けやすい可能性があり、その推奨は、協調フィルタリングの性質により、よりアクティブなユーザのトレーニング記録によって偏る可能性があり、システムによる不公平な扱いにつながる。
本稿では,知識グラフに対する説明可能な推奨という文脈において,この不公平問題を緩和するために,ヒューリスティックな再分類による公正制約付きアプローチを提案する。
最先端知識グラフに基づく説明可能なレコメンデーションアルゴリズムを用いて,実世界のデータセットを複数実験した。
有望な結果は,提案アルゴリズムが高品質な説明可能なレコメンデーションを提供するだけでなく,いくつかの点で不公平さを低減できることを示している。
関連論文リスト
- A Survey on Fairness-aware Recommender Systems [59.23208133653637]
本稿では,様々なレコメンデーションシナリオにおいてフェアネスの概念を提示し,現在の進歩を包括的に分類し,レコメンデーションシステムのさまざまな段階におけるフェアネスを促進するための典型的な手法を紹介する。
次に、フェアネスを意識したレコメンデーションシステムが実業界における産業応用に与える影響について検討する。
論文 参考訳(メタデータ) (2023-06-01T07:08:22Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Breaking Feedback Loops in Recommender Systems with Causal Inference [99.22185950608838]
近年の研究では、フィードバックループが推奨品質を損なう可能性があり、ユーザの振る舞いを均質化している。
本稿では、因果推論を用いてフィードバックループを確実に破壊するアルゴリズムCAFLを提案する。
従来の補正手法と比較して,CAFLは推奨品質を向上することを示す。
論文 参考訳(メタデータ) (2022-07-04T17:58:39Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - User-oriented Fairness in Recommendation [21.651482297198687]
我々は,レコメンダシステムにおける不公平性問題に対して,ユーザの視点から対処する。
ユーザの行動レベルに応じて、有利で不利なグループにグループ化します。
提案手法は,レコメンデーションシステムにおけるユーザのグループ公平性を向上するだけでなく,全体的なレコメンデーション性能も向上する。
論文 参考訳(メタデータ) (2021-04-21T17:50:31Z) - Achieving User-Side Fairness in Contextual Bandits [17.947543703195738]
パーソナライズされたレコメンデーションにおけるユーザ側の公平性を実現する方法について検討する。
我々は、適切なパーソナライズされたレコメンデーションを、修正された文脈的盗賊として定式化する。
本研究では,従来のLinUCBアルゴリズムを改良したFair-LinUCBを提案する。
論文 参考訳(メタデータ) (2020-10-22T22:58:25Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - A Survey on Knowledge Graph-Based Recommender Systems [65.50486149662564]
我々は知識グラフに基づく推薦システムの体系的な調査を行う。
論文は、知識グラフを正確かつ説明可能なレコメンデーションにどのように活用するかに焦点を当てる。
これらの作業で使用されるデータセットを紹介します。
論文 参考訳(メタデータ) (2020-02-28T02:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。