論文の概要: Unbiased Rectification for Sequential Recommender Systems Under Fake Orders
- arxiv url: http://arxiv.org/abs/2604.08550v1
- Date: Sat, 24 Jan 2026 08:50:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-04-19 19:09:11.393682
- Title: Unbiased Rectification for Sequential Recommender Systems Under Fake Orders
- Title(参考訳): フェイクオーダーによるシーケンスレコメンダシステムの不偏形整流
- Authors: Qiyu Qin, Yichen Li, Haozhao Wang, Cheng Wang, Rui Zhang, Ruixuan Li,
- Abstract要約: 本稿では,妥協されたシーケンシャルレコメンデータシステムに対して,高精度かつ効率的な修正を実現することを目的とする。
偽の注文は絶対的に有害ではない - ある場合には、部分的な偽の注文がデータ拡張効果を持つこともある。
本稿では, 有害な試料を主に同定し, 不偏の正当化を実現するDual-view Identification and Targeted Rectification (DITaR)を提案する。
- 参考スコア(独自算出の注目度): 27.888718168114767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fake orders pose increasing threats to sequential recommender systems by misleading recommendation results through artificially manipulated interactions, including click farming, context-irrelevant substitutions, and sequential perturbations. Unlike injecting carefully designed fake users to influence recommendation performance, fake orders embedded within genuine user sequences aim to disrupt user preferences and mislead recommendation results, thereby manipulating exposure rates of specific items to gain competitive advantages. To protect users' authentic interest preferences and eliminate misleading information, this paper aims to perform precise and efficient rectification on compromised sequential recommender systems while avoiding the enormous computational and time costs of retraining existing models. Specifically, we identify that fake orders are not absolutely harmful - in certain cases, partial fake orders can even have a data augmentation effect. Based on this insight, we propose Dual-view Identification and Targeted Rectification (DITaR), which primarily identifies harmful samples to achieve unbiased rectification of the system. The core idea of this method is to obtain differentiated representations from collaborative and semantic views for precise detection, and then filters detected suspicious fake orders to select truly harmful ones for targeted rectification with gradient ascent. This ensures that useful information in fake orders is not removed while preventing bias residue. Moreover, it maintains the original data volume and sequence structure, thus protecting system performance and trustworthiness to achieve optimal unbiased rectification. Extensive experiments on three datasets demonstrate that DITaR achieves superior performance compared to state-of-the-art methods in terms of recommendation quality, computational efficiency, and system robustness.
- Abstract(参考訳): フェイクオーダーは、クリック農業、コンテキスト非関連置換、シーケンシャルな摂動など、人工的に操作された相互作用を通じて推奨結果を誤解させることで、シーケンシャルなレコメンダシステムへの脅威が増大する。
推奨性能に影響を与えるために慎重にデザインされた偽ユーザを注入するのとは異なり、本物のユーザシーケンスに埋め込まれた偽の注文は、ユーザの好みを乱し、推奨結果を誤解させることを目的としており、特定のアイテムの露出率を操作して競争上の優位性を得る。
本稿では,利用者の真の嗜好を保護し,誤った情報を排除するために,既存のモデルの再学習の膨大な計算・時間コストを回避しつつ,妥協されたシーケンシャルレコメンデータシステムに対して,正確かつ効率的な修正を行うことを目的とする。
具体的には、偽の注文が絶対的に有害ではないことを確認します - 場合によっては、部分的な偽の注文は、データ拡張効果を持つ場合もあります。
この知見に基づいて, 有害な試料を主に同定し, 異常な修正を行うDual-view Identification and Targeted Rectification (DITaR)を提案する。
この手法の中核となる考え方は、協調的・意味的な視点から、正確な検出のために区別された表現を取得し、不審な偽の命令をフィルタして、勾配上昇によるターゲットの修正のために真に有害なものを選択することである。
これにより、偽の順序で有用な情報が取り除かれないようにし、バイアスの残余を防ぐことができる。
さらに、元のデータボリュームとシーケンス構造を維持し、システム性能と信頼性を保護し、最適な非バイアス補正を実現する。
3つのデータセットに対する大規模な実験により、DITaRは推奨品質、計算効率、システムロバスト性の観点から、最先端の手法と比較して優れた性能を発揮することが示された。
関連論文リスト
- Verifiable Reasoning for LLM-based Generative Recommendation [106.7765000777685]
大規模言語モデル(LLM)における推論は、最近、生成的レコメンデーションの強化に強い可能性を示している。
本稿では,信頼性の高いフィードバックを提供するために,検証と推論をインターリーブする新しいTextbftextitreason-verify-recommendパラダイムを提案する。
4つの実世界のデータセットの実験は、VRecが効率を損なうことなく、推奨の有効性とスケーラビリティを大幅に向上することを示した。
論文 参考訳(メタデータ) (2026-03-08T16:55:45Z) - A Novel Generative Model with Causality Constraint for Mitigating Biases in Recommender Systems [20.672668625179526]
遅延共起バイアスは、ユーザのフィードバックとアイテムの露出の間の真の因果関係を曖昧にする可能性がある。
本稿では,Recommender Systemsにおける表現学習のための遅延因果制約(Latent Causality Constraints)と呼ばれる新しい生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-22T14:09:39Z) - SPRec: Self-Play to Debias LLM-based Recommendation [23.875509546540904]
大規模言語モデル(LLM)はレコメンデーションシステムにおいて大きな注目を集めている。
SPRecは、過剰勧告を緩和し、追加のデータや手動による介入を必要とせずに公平性を向上させるために設計された新しいセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-12-12T12:53:30Z) - Preference Diffusion for Recommendation [50.8692409346126]
DMベースのレコメンデータに適した最適化対象であるPreferDiffを提案する。
PreferDiffは、BPRをログライクなランキング目標に変換することで、ユーザの好みをよりよく把握する。
これはDMベースのレコメンデーション向けに特別に設計された、パーソナライズされたランキングの損失である。
論文 参考訳(メタデータ) (2024-10-17T01:02:04Z) - Advancing Recommender Systems by mitigating Shilling attacks [0.0]
コラボレーティブ・フィルタリングは、優れた性能のため、リコメンデーションの計算に広く使われている手法である。
本稿では,システム内のシリングプロファイルを正確に検出するアルゴリズムを提案するとともに,そのようなプロファイルがレコメンデーションに与える影響について検討する。
論文 参考訳(メタデータ) (2024-04-24T20:05:39Z) - Recommendation Systems with Distribution-Free Reliability Guarantees [83.80644194980042]
我々は、主に良いアイテムを含むことを厳格に保証されたアイテムのセットを返す方法を示す。
本手法は, 擬似発見率の厳密な有限サンプル制御によるランキングモデルを提供する。
我々はYahoo!のランキングとMSMarcoデータセットの学習方法を評価する。
論文 参考訳(メタデータ) (2022-07-04T17:49:25Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Determinantal Point Process Likelihoods for Sequential Recommendation [12.206748373325972]
本稿では,DPP(Determinantal Point Process)の確率に基づく2つの新たな損失関数を提案する。
提案した損失関数を実世界の3つのデータセットで実験した結果、品質と多様性の指標の両方において、最先端のシーケンシャルなレコメンデーション手法よりも顕著な改善が見られた。
論文 参考訳(メタデータ) (2022-04-25T11:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。