論文の概要: Alleviating User-Sensitive bias with Fair Generative Sequential Recommendation Model
- arxiv url: http://arxiv.org/abs/2506.19777v1
- Date: Tue, 24 Jun 2025 16:42:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.72865
- Title: Alleviating User-Sensitive bias with Fair Generative Sequential Recommendation Model
- Title(参考訳): 公平な生成系列推薦モデルによるユーザ感性バイアスの緩和
- Authors: Yang Liu, Feng Wu, Xuefang Zhu,
- Abstract要約: 新しい生成モデルパラダイムとしての拡散モデル(DM)はレコメンデーションシステムにおいて大きな成功を収めた。
本稿では,FairGENRecに基づくFairGENerative Sequence Recommendationモデルを提案する。
- 参考スコア(独自算出の注目度): 37.544371176013435
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommendation fairness has recently attracted much attention. In the real world, recommendation systems are driven by user behavior, and since users with the same sensitive feature (e.g., gender and age) tend to have the same patterns, recommendation models can easily capture the strong correlation preference of sensitive features and thus cause recommendation unfairness. Diffusion model (DM) as a new generative model paradigm has achieved great success in recommendation systems. DM's ability to model uncertainty and represent diversity, and its modeling mechanism has a high degree of adaptability with the real-world recommendation process with bias. Therefore, we use DM to effectively model the fairness of recommendation and enhance the diversity. This paper proposes a FairGENerative sequential Recommendation model based on DM, FairGENRec. In the training phase, we inject random noise into the original distribution under the guidance of the sensitive feature recognition model, and a sequential denoise model is designed for the reverse reconstruction of items. Simultaneously, recommendation fairness modeling is completed by injecting multi-interests representational information that eliminates the bias of sensitive user features into the generated results. In the inference phase, the model obtains the noise in the form of noise addition by using the history interactions which is followed by reverse iteration to reconstruct the target item representation. Finally, our extensive experiments on three datasets demonstrate the dual enhancement effect of FairGENRec on accuracy and fairness, while the statistical analysis of the cases visualizes the degree of improvement on the fairness of the recommendation.
- Abstract(参考訳): 勧告の公正さは近年注目を集めている。
実世界では、レコメンデーションシステムはユーザの行動によって駆動され、同一のセンシティブな特徴(例えば、性別、年齢)を持つユーザーが同じパターンを持つ傾向があるため、レコメンデーションモデルは、センシティブな特徴の強い相関関係を容易に捉え、レコメンデーションの不公平を引き起こすことができる。
新しい生成モデルパラダイムとしての拡散モデル(DM)はレコメンデーションシステムにおいて大きな成功を収めた。
DMは不確実性をモデル化し多様性を表現し、そのモデリングメカニズムは現実の推奨プロセスに偏りのある高い適応性を持つ。
そこで,DMを用いて推薦の公正性を効果的にモデル化し,多様性を高める。
本稿では,FairGENRecに基づくFairGENerative Sequence Recommendationモデルを提案する。
トレーニング段階では、感性特徴認識モデルの指導の下で、元の分布にランダムノイズを注入し、アイテムの逆復元のためのシーケンシャルな復調モデルを設計する。
同時に、感性のあるユーザ特徴のバイアスを排除した多目的表現情報を生成結果に注入することにより、レコメンデーションフェアネスモデリングが完了する。
推測フェーズでは、対象のアイテム表現を再構成するために、後続の繰り返しによる履歴相互作用を用いて、ノイズ付加の形でノイズを取得する。
最後に,FairGENRecの精度と公平性に対する二重強化効果を示すとともに,ケースの統計的分析により,推奨の公正性の改善度合いを可視化した。
関連論文リスト
- Fake it till You Make it: Reward Modeling as Discriminative Prediction [49.31309674007382]
GAN-RMは、手動の嗜好アノテーションと明示的な品質次元工学を排除した効率的な報酬モデリングフレームワークである。
提案手法は,少数の対象サンプルを識別し,報酬モデルを訓練する。
実験では、GAN-RMが複数の主要なアプリケーションにまたがって有効であることを実証した。
論文 参考訳(メタデータ) (2025-06-16T17:59:40Z) - A Novel Generative Model with Causality Constraint for Mitigating Biases in Recommender Systems [20.672668625179526]
遅延共起バイアスは、ユーザのフィードバックとアイテムの露出の間の真の因果関係を曖昧にする可能性がある。
本稿では,Recommender Systemsにおける表現学習のための遅延因果制約(Latent Causality Constraints)と呼ばれる新しい生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T14:09:39Z) - Flow Matching based Sequential Recommender Model [54.815225661065924]
本研究では,フローマッチングに基づくフローマッチングモデルであるFMRecを紹介する。
FMRecは最先端の手法よりも平均6.53%改善している。
論文 参考訳(メタデータ) (2025-05-22T06:53:03Z) - Detecting Prefix Bias in LLM-based Reward Models [4.596249232904721]
選好データセットに基づいて訓練された報酬モデルにおいて,プレフィックスバイアスを検知し,評価するための新しい手法を提案する。
これらの指標を活用して、人種と性別の異なる嗜好モデルにおける大きなバイアスを明らかにします。
本研究は,公正かつ信頼性の高い報酬モデルを開発する上で,バイアス対応データセットの設計と評価を重要視するものである。
論文 参考訳(メタデータ) (2025-05-13T21:50:03Z) - How Fair is Your Diffusion Recommender Model? [17.78188684065516]
拡散に基づくレコメンデーションシステムは、近年、従来のジェネレーティブレコメンデーションアプローチより優れていることが証明されている。
機械学習の文献は、拡散モデルが必然的に情報のバイアスを持ち、不公平な結果をもたらす可能性があるといういくつかの懸念を提起している。
我々は拡散に基づく推薦の先駆的アプローチであるDiffRecに関する文献において、最初の公正性調査の1つを行う。
論文 参考訳(メタデータ) (2024-09-06T15:17:40Z) - Secrets of RLHF in Large Language Models Part II: Reward Modeling [134.97964938009588]
本稿では,データセットにおける不正確で曖昧な嗜好の影響を軽減するために,一連の新しい手法を紹介する。
また、選択された応答と拒否された応答を区別する報酬モデルの有用性を高めるために、対照的な学習を導入する。
論文 参考訳(メタデータ) (2024-01-11T17:56:59Z) - A Relational Model for One-Shot Classification [80.77724423309184]
インダクティブバイアスを組み込んだディープラーニングモデルは,広範なデータ拡張に頼ることなく,サンプル効率のよい学習にメリットをもたらすことを示す。
提案するワンショット分類モデルは,一対の入力を局所的および対的注意の形で関係マッチングする。
論文 参考訳(メタデータ) (2021-11-08T07:53:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。