論文の概要: Fairness-Aware Explainable Recommendation over Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2006.02046v2
- Date: Sun, 28 Jun 2020 02:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 18:28:54.719167
- Title: Fairness-Aware Explainable Recommendation over Knowledge Graphs
- Title(参考訳): 知識グラフに対するフェアネスを考慮した説明可能な勧告
- Authors: Zuohui Fu, Yikun Xian, Ruoyuan Gao, Jieyu Zhao, Qiaoying Huang,
Yingqiang Ge, Shuyuan Xu, Shijie Geng, Chirag Shah, Yongfeng Zhang, Gerard de
Melo
- Abstract要約: ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
- 参考スコア(独自算出の注目度): 73.81994676695346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been growing attention on fairness considerations recently,
especially in the context of intelligent decision making systems. Explainable
recommendation systems, in particular, may suffer from both explanation bias
and performance disparity. In this paper, we analyze different groups of users
according to their level of activity, and find that bias exists in
recommendation performance between different groups. We show that inactive
users may be more susceptible to receiving unsatisfactory recommendations, due
to insufficient training data for the inactive users, and that their
recommendations may be biased by the training records of more active users, due
to the nature of collaborative filtering, which leads to an unfair treatment by
the system. We propose a fairness constrained approach via heuristic re-ranking
to mitigate this unfairness problem in the context of explainable
recommendation over knowledge graphs. We experiment on several real-world
datasets with state-of-the-art knowledge graph-based explainable recommendation
algorithms. The promising results show that our algorithm is not only able to
provide high-quality explainable recommendations, but also reduces the
recommendation unfairness in several respects.
- Abstract(参考訳): 近年,知的な意思決定システムの文脈において,公平性への配慮が注目されている。
特に説明可能なレコメンデーションシステムは、説明バイアスと性能格差の両方に苦しむ可能性がある。
本稿では,ユーザの行動レベルに応じて異なるグループを解析し,異なるグループ間での推薦性能にバイアスが存在することを明らかにする。
不アクティブなユーザは、不アクティブなユーザのためのトレーニングデータ不足により、不十分な推奨を受けやすい可能性があり、その推奨は、協調フィルタリングの性質により、よりアクティブなユーザのトレーニング記録によって偏る可能性があり、システムによる不公平な扱いにつながる。
本稿では,知識グラフに対する説明可能な推奨という文脈において,この不公平問題を緩和するために,ヒューリスティックな再分類による公正制約付きアプローチを提案する。
最先端知識グラフに基づく説明可能なレコメンデーションアルゴリズムを用いて,実世界のデータセットを複数実験した。
有望な結果は,提案アルゴリズムが高品質な説明可能なレコメンデーションを提供するだけでなく,いくつかの点で不公平さを低減できることを示している。
関連論文リスト
- FairDgcl: Fairness-aware Recommendation with Dynamic Graph Contrastive Learning [48.38344934125999]
提案手法は,高品質なデータ拡張を実現し,コメンデーションフェアネスを改善する方法である。
具体的には,動的グラフ対逆学習フレームワークであるFairDgclを提案する。
FairDgclは、公正さと精度の両方を持つ拡張表現を同時に生成できることを示す。
論文 参考訳(メタデータ) (2024-10-23T04:43:03Z) - Learning Recommender Systems with Soft Target: A Decoupled Perspective [49.83787742587449]
そこで本研究では,ソフトラベルを活用することで,目的を2つの側面として捉えるために,分離されたソフトラベル最適化フレームワークを提案する。
本稿では,ラベル伝搬アルゴリズムをモデル化したソフトラベル生成アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-09T04:20:15Z) - Correcting for Popularity Bias in Recommender Systems via Item Loss Equalization [1.7771454131646311]
人気アイテムの小さなセットが、高い相互作用率のために推奨結果を支配している。
この現象は、ニッチな興味のある人を無視しながら、メインストリームの趣味を持つユーザーに不当に利益をもたらす。
本稿では,推薦モデルのトレーニングプロセスに介入することで,この問題に対処するプロセス内アプローチを提案する。
論文 参考訳(メタデータ) (2024-10-07T08:34:18Z) - Improving Recommendation Fairness via Data Augmentation [66.4071365614835]
協調フィルタリングに基づくレコメンデーションは、すべてのユーザの過去の行動データからユーザの好みを学習し、意思決定を容易にするために人気がある。
ユーザの敏感な属性に応じて異なるユーザグループに対して等しく機能しない場合には,レコメンダシステムは不公平であると考えられる。
本稿では,データ拡張の観点から,レコメンデーションフェアネスを改善する方法について検討する。
論文 参考訳(メタデータ) (2023-02-13T13:11:46Z) - Equal Experience in Recommender Systems [21.298427869586686]
我々は、バイアスデータの存在下で不公平を規制するために、新しい公正の概念(平等な経験と呼ぶ)を導入する。
本稿では、正規化項としての公正性の概念を取り入れた最適化フレームワークを提案し、最適化を解く計算効率の良いアルゴリズムを導入する。
論文 参考訳(メタデータ) (2022-10-12T05:53:05Z) - Experiments on Generalizability of User-Oriented Fairness in Recommender
Systems [2.0932879442844476]
公正を意識した推薦システムは、異なるユーザーグループを同様に扱うことを目的としている。
本稿では,ユーザ中心の公平度を再評価するフレームワークを提案する。
我々は、ユーザ(NDCGなど)とアイテム(新規性、アイテムフェアネスなど)の両方から、フレームワークの再ランク付けによる最終的なレコメンデーションを評価する。
論文 参考訳(メタデータ) (2022-05-17T12:36:30Z) - User-oriented Fairness in Recommendation [21.651482297198687]
我々は,レコメンダシステムにおける不公平性問題に対して,ユーザの視点から対処する。
ユーザの行動レベルに応じて、有利で不利なグループにグループ化します。
提案手法は,レコメンデーションシステムにおけるユーザのグループ公平性を向上するだけでなく,全体的なレコメンデーション性能も向上する。
論文 参考訳(メタデータ) (2021-04-21T17:50:31Z) - DeepFair: Deep Learning for Improving Fairness in Recommender Systems [63.732639864601914]
レコメンダーシステムにおけるバイアス管理の欠如は、少数派が不公平な勧告を受けることになる。
本稿では,ユーザの人口統計情報を知ることなく,公平さと正確さを最適なバランスで組み合わせたDeep Learningベースの協調フィルタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-09T13:39:38Z) - A Survey on Knowledge Graph-Based Recommender Systems [65.50486149662564]
我々は知識グラフに基づく推薦システムの体系的な調査を行う。
論文は、知識グラフを正確かつ説明可能なレコメンデーションにどのように活用するかに焦点を当てる。
これらの作業で使用されるデータセットを紹介します。
論文 参考訳(メタデータ) (2020-02-28T02:26:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。