論文の概要: Enhancing New-item Fairness in Dynamic Recommender Systems
- arxiv url: http://arxiv.org/abs/2504.21362v1
- Date: Wed, 30 Apr 2025 06:49:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 22:09:15.159106
- Title: Enhancing New-item Fairness in Dynamic Recommender Systems
- Title(参考訳): 動的リコメンダシステムにおける新しいイットムフェアネスの促進
- Authors: Huizhong Guo, Zhu Sun, Dongxia Wang, Tianjun Wei, Jinfeng Li, Jie Zhang,
- Abstract要約: 新しいイテムは、新鮮で魅力的なユーザエクスペリエンスを提供するためのレコメンデータシステム(RS)において重要な役割を担います。
従来の方法では、露光時間と限られた相互作用記録のために、新しいイテムを効果的に推奨するのに苦労している。
本稿では, 強化学習(RL)を基盤とした, DRS用に特別に設計された新しいアイテムフェアネス向上フレームワークであるFairAgentを提案する。
- 参考スコア(独自算出の注目度): 12.775131956942962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: New-items play a crucial role in recommender systems (RSs) for delivering fresh and engaging user experiences. However, traditional methods struggle to effectively recommend new-items due to their short exposure time and limited interaction records, especially in dynamic recommender systems (DRSs) where new-items get continuously introduced and users' preferences evolve over time. This leads to significant unfairness towards new-items, which could accumulate over the successive model updates, ultimately compromising the stability of the entire system. Therefore, we propose FairAgent, a reinforcement learning (RL)-based new-item fairness enhancement framework specifically designed for DRSs. It leverages knowledge distillation to extract collaborative signals from traditional models, retaining strong recommendation capabilities for old-items. In addition, FairAgent introduces a novel reward mechanism for recommendation tailored to the characteristics of DRSs, which consists of three components: 1) a new-item exploration reward to promote the exposure of dynamically introduced new-items, 2) a fairness reward to adapt to users' personalized fairness requirements for new-items, and 3) an accuracy reward which leverages users' dynamic feedback to enhance recommendation accuracy. Extensive experiments on three public datasets and backbone models demonstrate the superior performance of FairAgent. The results present that FairAgent can effectively boost new-item exposure, achieve personalized new-item fairness, while maintaining high recommendation accuracy.
- Abstract(参考訳): 新しいイテムは、新鮮で魅力的なユーザエクスペリエンスを提供するためのレコメンデータシステム(RS)において重要な役割を担います。
しかし、特に動的レコメンデータシステム(DRS)では、新しいイテムが継続的に導入され、ユーザの好みが時間とともに進化する。
これは、連続したモデル更新に蓄積される可能性のある新しいイテムに対する重大な不公平を招き、最終的にはシステム全体の安定性を損なうことになる。
そこで本研究では, 強化学習(RL)を基盤とした, DRSに特化して設計された新しいアイテムフェアネス向上フレームワークであるFairAgentを提案する。
知識蒸留を利用して従来のモデルから協調的な信号を抽出し、古いイテムの強力なレコメンデーション能力を保持する。
さらに、FairAgentは3つのコンポーネントからなるDSSの特徴に合わせて、新しい報酬メカニズムを導入している。
1)動的に導入された新イデムの露出を促進するための新イデム探索報酬。
2)新規項目に対する利用者のパーソナライズされた公正性要件に適合する公正報酬
3)ユーザの動的フィードバックを活用して推薦精度を高める精度報酬。
3つの公開データセットとバックボーンモデルに関する大規模な実験は、FairAgentの優れたパフォーマンスを示している。
この結果から,FairAgentは新規被曝を効果的に促進し,パーソナライズされた新規被曝公正を達成するとともに,高いレコメンデーション精度を維持した。
関連論文リスト
- Recommendations Beyond Catalogs: Diffusion Models for Personalized Generation [2.5778542959485766]
本稿では,確率的拡散に基づくリコメンデータシステムであるREBECAを提案する。
REBECAは、カタログからアイテムを取り出すのではなく、個々の味に合わせた新しいアイテムを合成する。
我々は、実世界のデータに基づいてREBECAを評価し、生成レコメンデーションシステムのための新しいパーソナライズ指標を提案する。
論文 参考訳(メタデータ) (2025-02-05T21:11:47Z) - Collaborative Diffusion Model for Recommender System [52.56609747408617]
Recommender System (CDiff4Rec) のための協調拡散モデルを提案する。
CDiff4Recはアイテム機能から擬似ユーザを生成し、本物と偽の個人的隣人の両方から協調的な信号を利用する。
3つの公開データセットによる実験結果から、CDiff4Recは、パーソナライズされた情報の損失を効果的に軽減することで、競合より優れていることが示された。
論文 参考訳(メタデータ) (2025-01-31T10:05:01Z) - Ensuring User-side Fairness in Dynamic Recommender Systems [37.20838165555877]
本稿では,動的レコメンデーションシステムにおけるユーザ側の公正性を保証するための第一原理的な研究について述べる。
本稿では,FAir Dynamic rEcommender (FADE)を提案する。
FADEは、全体的なレコメンデーション性能を犠牲にすることなく、性能格差を効果的かつ効率的に低減することを示す。
論文 参考訳(メタデータ) (2023-08-29T22:03:17Z) - Towards Validating Long-Term User Feedbacks in Interactive
Recommendation Systems [36.45966630580796]
対話型レコメンダシステム(IRS)は,ユーザとレコメンダシステム間の対話的プロセスをモデル化する能力から,多くの注目を集めている。
レビューデータセットを用いてIRSの実験を再考し、RLベースのモデルと単純な報酬モデルを比較した。
論文 参考訳(メタデータ) (2023-08-22T02:34:47Z) - FairSR: Fairness-aware Sequential Recommendation through Multi-Task
Learning with Preference Graph Embeddings [14.543386085745192]
シークエンシャルレコメンデーションは、ユーザとイテムの相互作用の時間的ダイナミクスから学び、次のものを予測する。
本稿では,SRとアルゴリズムフェアネスの結婚を実現することを目的とする。
本稿では,新たな基準であるインタラクションフェアネスを定義した,新規なフェアネス対応シーケンシャルレコメンデーションタスクを提案する。
論文 参考訳(メタデータ) (2022-04-30T17:33:51Z) - Reinforcement Learning based Path Exploration for Sequential Explainable
Recommendation [57.67616822888859]
強化学習(TMER-RL)を活用した新しい時間的メタパスガイド型説明可能な勧告を提案する。
TMER-RLは, 動的知識グラフ上での動的ユーザ・イテム進化を逐次モデル化するために, 注意機構を持つ連続項目間の強化項目・イテムパスをモデル化する。
2つの実世界のデータセットに対するTMERの大規模な評価は、最近の強いベースラインと比較して最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2021-11-24T04:34:26Z) - Choosing the Best of Both Worlds: Diverse and Novel Recommendations
through Multi-Objective Reinforcement Learning [68.45370492516531]
本稿では,Recommender Systems (RS) 設定のための拡張多目的強化学習(SMORL)を紹介する。
SMORLエージェントは、標準レコメンデーションモデルを拡張し、RLレイヤーを追加し、3つの主要な目的(正確性、多様性、新しいレコメンデーション)を同時に満たすように強制する。
実世界の2つのデータセットに対する実験結果から,集約的多様性の顕著な増加,精度の適度な向上,レコメンデーションの反復性の低下,および相補的目的としての多様性と新規性の強化の重要性が示された。
論文 参考訳(メタデータ) (2021-10-28T13:22:45Z) - Balancing Accuracy and Fairness for Interactive Recommendation with
Reinforcement Learning [68.25805655688876]
推薦者の公正さは、おそらく伝統的な推薦者によって引き起こされる偏見と差別によって、注目を集めている。
IRSにおける精度と公平性の長期的バランスを動的に維持するための強化学習ベースのフレームワークであるFairRecを提案する。
大規模な実験は、FairRecが優れたレコメンデーション品質を維持しながら、公正性を改善することを実証する。
論文 参考訳(メタデータ) (2021-06-25T02:02:51Z) - PURS: Personalized Unexpected Recommender System for Improving User
Satisfaction [76.98616102965023]
本稿では、予期せぬことを推奨プロセスに組み込んだ、新しいPersonalized Unexpected Recommender System(PURS)モデルについて述べる。
3つの実世界のデータセットに対する大規模なオフライン実験は、提案されたPURSモデルが最先端のベースラインアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2021-06-05T01:33:21Z) - Leveraging Historical Interaction Data for Improving Conversational
Recommender System [105.90963882850265]
アイテムと属性に基づく嗜好シーケンスを統合するための,新しい事前学習手法を提案する。
実世界の2つのデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-19T03:43:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。