論文の概要: On the Effectiveness of Unlearning in Session-Based Recommendation
- arxiv url: http://arxiv.org/abs/2312.14447v1
- Date: Fri, 22 Dec 2023 05:23:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 16:03:33.174090
- Title: On the Effectiveness of Unlearning in Session-Based Recommendation
- Title(参考訳): セッションベースレコメンデーションにおけるアンラーニングの効果について
- Authors: Xin Xin, Liu Yang, Ziqi Zhao, Pengjie Ren, Zhumin Chen, Jun Ma,
Zhaochun Ren
- Abstract要約: セッションベースのレコメンデーションは、セッション内の前のインタラクションからユーザの将来の関心を予測する。
セッションベースレコメンデーションアンラーニングフレームワークであるSRUを提案する。
- 参考スコア(独自算出の注目度): 44.136860588257164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Session-based recommendation predicts users' future interests from previous
interactions in a session. Despite the memorizing of historical samples, the
request of unlearning, i.e., to remove the effect of certain training samples,
also occurs for reasons such as user privacy or model fidelity. However,
existing studies on unlearning are not tailored for the session-based
recommendation. On the one hand, these approaches cannot achieve satisfying
unlearning effects due to the collaborative correlations and sequential
connections between the unlearning item and the remaining items in the session.
On the other hand, seldom work has conducted the research to verify the
unlearning effectiveness in the session-based recommendation scenario. In this
paper, we propose SRU, a session-based recommendation unlearning framework,
which enables high unlearning efficiency, accurate recommendation performance,
and improved unlearning effectiveness in session-based recommendation.
Specifically, we first partition the training sessions into separate sub-models
according to the similarity across the sessions, then we utilize an
attention-based aggregation layer to fuse the hidden states according to the
correlations between the session and the centroid of the data in the sub-model.
To improve the unlearning effectiveness, we further propose three extra data
deletion strategies, including collaborative extra deletion (CED), neighbor
extra deletion (NED), and random extra deletion (RED). Besides, we propose an
evaluation metric that measures whether the unlearning sample can be inferred
after the data deletion to verify the unlearning effectiveness. We implement
SRU with three representative session-based recommendation models and conduct
experiments on three benchmark datasets. Experimental results demonstrate the
effectiveness of our methods.
- Abstract(参考訳): セッションベースのレコメンデーションは、セッション内の前のインタラクションからユーザの将来の関心を予測する。
歴史的なサンプルを記憶しているにも関わらず、特定のトレーニングサンプルの影響を取り除こうとする未学習の要求も、ユーザのプライバシやモデルの忠実性といった理由から発生する。
しかし、未学習に関する既存の研究はセッションベースの推薦には適していない。
一方、これらの手法は、セッション中の未学習項目と残りの項目との協調的相関や逐次的接続により、未学習効果を満足することができない。
一方,セッションベースのレコメンデーションシナリオにおいて,未学習の有効性を検証する研究はほとんど行われていない。
本稿では,セッションベースレコメンデーションにおける高い学習効率,正確なレコメンデーション性能,学習効率の向上を実現する,セッションベースのレコメンデーションアンラーニングフレームワークsruを提案する。
具体的には、まず、セッション間の類似性に応じてトレーニングセッションを個別のサブモデルに分割し、次に、セッションとサブモデル内のデータのセントロイドの相関関係に応じて隠れた状態を融合させる注意ベースの集約層を利用する。
さらに,未学習の有効性を向上させるために,協調追加削除(ced),隣接追加削除(ned),ランダム追加削除(red)という3つの追加データ削除戦略を提案する。
さらに,データ削除後に未学習サンプルを推測できるかどうかを測定し,未学習の有効性を検証する評価指標を提案する。
3つの代表的なセッションベースレコメンデーションモデルでSRUを実装し、3つのベンチマークデータセットで実験を行う。
実験の結果,本手法の有効性が示された。
関連論文リスト
- DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - SimCGNN: Simple Contrastive Graph Neural Network for Session-based
Recommendation [13.335104151715946]
セッションベースのレコメンデーション問題は、匿名ユーザの次のイテム予測に焦点を当てている。
既存のグラフベースのSBRメソッドには、すべてのセッションを同じアイテムで区別する機能がない。
本稿ではセッションベースレコメンデーション(SimCGNN)のための単純なコントラストグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2023-02-08T11:13:22Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - SR-GCL: Session-Based Recommendation with Global Context Enhanced
Augmentation in Contrastive Learning [5.346468677221906]
セッションベースのレコメンデーションは、進行中のセッションに基づいて、ユーザの次の振る舞いを予測することを目的としている。
最近の研究は、複雑なアイテム遷移をキャプチャするための注意機構を備えたグラフニューラルネットワークを適用している。
セッションベースレコメンデーションのための新しいコントラスト学習フレームワークSR-GCLを提案する。
論文 参考訳(メタデータ) (2022-09-22T06:18:20Z) - WSLRec: Weakly Supervised Learning for Neural Sequential Recommendation
Models [24.455665093145818]
我々は、WSLRecと呼ばれる新しいモデルに依存しないトレーニング手法を提案し、3段階のフレームワーク(事前学習、トップ$k$マイニング、本質的、微調整)を採用する。
WSLRec は、BR や ItemCF のようなモデルフリーメソッドから、余分な弱い監督のモデルを事前訓練することで、不完全性の問題を解決すると同時に、最上位の$k のマイニングを活用して、微調整のための弱い監督の信頼性の高いユーザ・イテム関連を検査することで、不正確な問題を解消する。
論文 参考訳(メタデータ) (2022-02-28T08:55:12Z) - Comprehensive Empirical Evaluation of Deep Learning Approaches for
Session-based Recommendation in E-Commerce [38.42250061908039]
セッションベースのレコメンデーションでは、リコメンデーションシステムは、同じセッション内でユーザが行ったイベントの順序をカウントして、他のアイテムを予測し、支持する。
本稿では,セッションベースレコメンデーションで使用される最先端のディープラーニングアプローチについて,包括的に評価する。
論文 参考訳(メタデータ) (2020-10-17T17:22:35Z) - Leveraging Historical Interaction Data for Improving Conversational
Recommender System [105.90963882850265]
アイテムと属性に基づく嗜好シーケンスを統合するための,新しい事前学習手法を提案する。
実世界の2つのデータセットの実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-19T03:43:50Z) - S^3-Rec: Self-Supervised Learning for Sequential Recommendation with
Mutual Information Maximization [104.87483578308526]
本稿では,シーケンスレコメンデーションのための自己改善学習のためのモデルS3-Recを提案する。
そこで本稿では,属性,項目,サブシーケンス,シーケンス間の相関関係を学習するために,4つの補助的自己教師対象を考案する。
6つの実世界のデータセットで実施された大規模な実験は、既存の最先端手法よりも提案手法が優れていることを示す。
論文 参考訳(メタデータ) (2020-08-18T11:44:10Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。