論文の概要: Learning to Fast Unrank in Collaborative Filtering Recommendation
- arxiv url: http://arxiv.org/abs/2511.06803v1
- Date: Mon, 10 Nov 2025 07:45:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.141832
- Title: Learning to Fast Unrank in Collaborative Filtering Recommendation
- Title(参考訳): 協調フィルタリングレコメンデーションにおける高速アンランク学習
- Authors: Junpeng Zhao, Lin Li, Ming Li, Amran Bhuiyan, Jimmy Huang,
- Abstract要約: 協調フィルタリングレコメンデーション(L2UnRank)における高速アンランク学習を提案する。
L2UnRankは、(a)相互作用ベースのp-ホップ伝播による影響範囲の同定、(b)このスコープ内のエンティティの構造的および意味的影響の計算、(c)影響情報によってガイドされる効率的でランク付け可能なパラメータ更新を実行する。
実験では、L2UnRankのモデルに依存しない性質を示し、最先端の非ランクの有効性を達成し、再トレーニングに匹敵する推奨品質を維持する。
- 参考スコア(独自算出の注目度): 8.133317154583077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern data-driven recommendation systems risk memorizing sensitive user behavioral patterns, raising privacy concerns. Existing recommendation unlearning methods, while capable of removing target data influence, suffer from inefficient unlearning speed and degraded performance, failing to meet real-time unlearning demands. Considering the ranking-oriented nature of recommendation systems, we present unranking, the process of reducing the ranking positions of target items while ensuring the formal guarantees of recommendation unlearning. To achieve efficient unranking, we propose Learning to Fast Unrank in Collaborative Filtering Recommendation (L2UnRank), which operates through three key stages: (a) identifying the influenced scope via interaction-based p-hop propagation, (b) computing structural and semantic influences for entities within this scope, and (c) performing efficient, ranking-aware parameter updates guided by influence information. Extensive experiments across multiple datasets and backbone models demonstrate L2UnRank's model-agnostic nature, achieving state-of-the-art unranking effectiveness and maintaining recommendation quality comparable to retraining, while also delivering a 50x speedup over existing methods. Codes are available at https://github.com/Juniper42/L2UnRank.
- Abstract(参考訳): 現代のデータ駆動レコメンデーションシステムは、機密性の高いユーザの行動パターンを記憶し、プライバシーの懸念を高めるリスクがある。
既存のリコメンデーションアンラーニング手法は、ターゲットデータの影響を排除できるが、非効率なアンラーニング速度と性能低下に悩まされ、リアルタイムアンラーニング要求を満たすことができない。
本稿では,レコメンデーションシステムのランク指向性を考えると,対象項目のランク付け位置を減らし,レコメンデーションアンラーニングの正式な保証を確保するプロセスについて述べる。
協調フィルタリング勧告(L2UnRank:L2UnRank:L2UnRank:L2Unrank:L2UnRank:L2Unrank:L2UnRank:L2Unrank:L2Unrank:L2UnRank:L2UnRank: L2Unrank:L2Unrank:L2Unrank:L2UnRank:L2UnRank:L2UnRank:L2Unrank:L2Unrank:L2Unrank:L2Unrank:L2Unrank:L 2Unrank:L2Unrank))を提案する。
(a)相互作用に基づくpホップ伝播による影響範囲の同定
ロ この範囲内の実体に関する構造的・意味的影響の計算及び
(c)影響情報で案内された効率的なランキング対応パラメータ更新を行う。
複数のデータセットとバックボーンモデルにわたる大規模な実験は、L2UnRankのモデルに依存しない性質を示し、最先端の非ランクの有効性を実現し、再トレーニングに匹敵する推奨品質を維持し、既存のメソッドよりも50倍のスピードアップを提供する。
コードはhttps://github.com/Juniper42/L2UnRank.comで入手できる。
関連論文リスト
- Downgrade to Upgrade: Optimizer Simplification Enhances Robustness in LLM Unlearning [25.53799024782883]
大言語モデル(LLM)は、既存のモデルから望ましくないデータや知識の影響を外科的に除去することを目的としている。
最近の知見は、ウェイト量子化や微調整のような未学習操作が、意図した忘れを迅速に中和できることを示している。
論文 参考訳(メタデータ) (2025-10-01T10:50:14Z) - Towards a Real-World Aligned Benchmark for Unlearning in Recommender Systems [49.766845975588275]
推薦システムにおける非学習のためのより現実的なベンチマークの開発を導くために,設計デシダータと研究質問のセットを提案する。
我々は、現実世界の削除要求の逐次的で時間に敏感な性質を反映した、未学習のセットアップについて論じる。
本稿では,提案したdesiderataをベースとした次世代レコメンデーションセッティングの予備実験を行い,アンラーニングが逐次レコメンデーションモデルにも有効であることを確認した。
論文 参考訳(メタデータ) (2025-08-23T16:05:40Z) - Lightweight and Direct Document Relevance Optimization for Generative Information Retrieval [49.669503570350166]
生成情報検索(GenIR)は、文書識別子(ドシデント)生成タスクとして文書検索を定式化する有望なニューラル検索パラダイムである。
既存のGenIRモデルはトークンレベルのミスアライメントに悩まされており、次のトークンを予測するためにトレーニングされたモデルは、ドキュメントレベルの関連性を効果的にキャプチャできないことが多い。
本稿では,トークンレベルのドシデント生成と文書レベルのドシデンス推定をペアのランク付けによる直接最適化により整合するダイレクトドキュメントレバレンス最適化(DDRO)を提案する。
論文 参考訳(メタデータ) (2025-04-07T15:27:37Z) - From Pairwise to Ranking: Climbing the Ladder to Ideal Collaborative Filtering with Pseudo-Ranking [13.01752267289297]
理想的なコラボレーティブフィルタリングモデルは、ユーザのすべての項目の完全なランキングから学習し、最適なトップKレコメンデーションを作成すべきである。
ほとんどのCFモデルは、完全なランク付けを近似するためにペアワイズ損失関数に依存しており、結果として大きな性能差が生じる。
そこで本研究では,従来のノイズ注入機構によって制御された擬似階調を導入し,ランキング情報の欠如に対処する擬似階調パラダイム(PRP)を提案する。
論文 参考訳(メタデータ) (2024-12-24T05:01:16Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - Contextual Dual Learning Algorithm with Listwise Distillation for Unbiased Learning to Rank [26.69630281310365]
Unbiased Learning to Rank (ULTR)は、バイアスのないユーザのフィードバック(例えばクリック)を活用して、バイアスのないランキングモデルを最適化することを目的としている。
位置バイアスと文脈バイアスの両方に対処するため,CDLA-LD(Contextual Dual Learning Algorithm)を提案する。
論文 参考訳(メタデータ) (2024-08-19T09:13:52Z) - FIRST: Faster Improved Listwise Reranking with Single Token Decoding [56.727761901751194]
まず、第1生成識別子の出力ロジットを活用して、候補のランク付け順序を直接取得する新しいリストワイズLLMリグレードアプローチであるFIRSTを紹介する。
実験結果から、BEIRベンチマークの利得により、FIRSTはロバストなランキング性能を維持しつつ、推論を50%高速化することが示された。
以上の結果から,LLMリランカーはクロスエンコーダに比べて強い蒸留信号を提供できることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T21:27:50Z) - Adapting Triplet Importance of Implicit Feedback for Personalized
Recommendation [43.85549591503592]
インプシットフィードバックは、パーソナライズされたレコメンデーションサービスを開発するために頻繁に使用される。
本稿では,Triplet Importance Learning (TIL) という新たなトレーニングフレームワークを提案する。
提案手法は,トップkレコメンデーションのRecall@kにおいて,既存モデルよりも3~21%優れていた。
論文 参考訳(メタデータ) (2022-08-02T19:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。