論文の概要: Bringing Model Editing to Generative Recommendation in Cold-Start Scenarios
- arxiv url: http://arxiv.org/abs/2603.14259v1
- Date: Sun, 15 Mar 2026 07:31:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.707369
- Title: Bringing Model Editing to Generative Recommendation in Cold-Start Scenarios
- Title(参考訳): コールドスタートシナリオにおける生成レコメンデーションへのモデル編集の導入
- Authors: Chenglei Shen, Teng Shi, Weijie Yu, Xiao Zhang, Jun Xu,
- Abstract要約: 生成レコメンデーション(GR)は、エンドツーエンド生成パラダイムにおいて、シーケンシャルなレコメンデーションの強い可能性を示している。
既存のGRモデルは深刻なコールドスタート崩壊に悩まされており、コールドスタートアイテムに対する推奨精度はゼロに近い程度に低下する可能性がある。
我々は生成的推薦に適したモデル編集フレームワークであるGenRecEditを提案する。
- 参考スコア(独自算出の注目度): 9.969683280942098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative recommendation (GR) has shown strong potential for sequential recommendation in an end-to-end generation paradigm. However, existing GR models suffer from severe cold-start collapse: their recommendation accuracy on cold-start items can drop to near zero. Current solutions typically rely on retraining with cold-start interactions, which is hindered by sparse feedback, high computational cost, and delayed updates, limiting practical utility in rapidly evolving recommendation catalogs. Inspired by model editing in NLP, which enables training-free knowledge injection into large language models, we explore how to bring this paradigm to generative recommendation. This, however, faces two key challenges: GR lacks the explicit subject-object binding common in natural language, making targeted edits difficult; and GR does not exhibit stable token co-occurrence patterns, making the injection of multi-token item representations unreliable. To address these challenges, we propose GenRecEdit, a model editing framework tailored for generative recommendation. GenRecEdit explicitly models the relationship between the full sequence context and next-token generation, adopts iterative token-level editing to inject multi-token item representations, and introduces a one-to-one trigger mechanism to reduce interference among multiple edits during inference. Extensive experiments on multiple datasets show that GenRecEdit substantially improves recommendation performance on cold-start items while preserving the model's original recommendation quality. Moreover, it achieves these gains using only about 9.5% of the training time required for retraining, enabling more efficient and frequent model updates.
- Abstract(参考訳): 生成レコメンデーション(GR)は、エンドツーエンド生成パラダイムにおいて、シーケンシャルなレコメンデーションの強い可能性を示している。
しかし、既存のGRモデルでは、コールドスタートアイテムに対する推奨精度がほぼゼロに低下する可能性があるため、深刻なコールドスタート崩壊に悩まされている。
現在のソリューションは一般的に、緩やかなフィードバック、高い計算コスト、遅れた更新によって妨げられ、急速に進化するレコメンデーションカタログにおける実用性を制限するコールドスタートによるリトレーニングに頼っている。
大規模言語モデルへの学習不要な知識注入を可能にするNLPのモデル編集に触発された本研究では,このパラダイムを生成的レコメンデーションに適用する方法を検討する。
しかし、これは2つの大きな課題に直面している: GRは自然言語に共通する明示的な主観オブジェクト結合を欠き、ターゲットとなる編集を困難にしている。
これらの課題に対処するために,生成的推薦に適したモデル編集フレームワークであるGenRecEditを提案する。
GenRecEditは、全シーケンスコンテキストと次のトークン生成の関係を明示的にモデル化し、反復的なトークンレベルの編集を採用して、マルチトークンアイテム表現を注入し、推論中に複数の編集間の干渉を減らす1対1のトリガ機構を導入している。
複数のデータセットに対する大規模な実験によると、GenRecEditは、モデルのオリジナルの推奨品質を維持しながら、コールドスタートアイテムのレコメンデーションパフォーマンスを大幅に改善する。
さらに、再トレーニングに必要なトレーニング時間の9.5%しか使用せず、より効率的で頻繁なモデル更新を可能にしている。
関連論文リスト
- Model Editing for New Document Integration in Generative Information Retrieval [110.90609826290968]
生成検索(GR)は文書識別子(docID)の生成として情報検索(IR)タスクを再構成する
既存のGRモデルは、新たに追加されたドキュメントへの一般化が不十分で、しばしば正しいドキュメントIDを生成できない。
DOMEは,GRモデルを非表示文書に効果的かつ効率的に適応する新しい手法である。
論文 参考訳(メタデータ) (2026-03-03T09:13:38Z) - Can Recommender Systems Teach Themselves? A Recursive Self-Improving Framework with Fidelity Control [82.30868101940068]
本稿では,外部データや教師モデルに依存することなく,モデルが自身のパフォーマンスをブートストラップするパラダイムを提案する。
我々の理論的分析は、RSIRがデータ駆動型暗黙正則化器として機能し、最適化景観を円滑にしていることを示している。
より小さなモデルであっても利点があり、弱いモデルはより強力なモデルに対して効果的なトレーニングカリキュラムを生成することができることを示す。
論文 参考訳(メタデータ) (2026-02-17T15:31:32Z) - PROMISE: Process Reward Models Unlock Test-Time Scaling Laws in Generative Recommendations [52.67948063133533]
生成レコメンデーションは有望なパラダイムとして現れ、階層的なセマンティックIDよりもシーケンス・ツー・シーケンス生成タスクとしてレコメンデーションを改革している。
既存の手法は、セマンティックドリフト(Semantic Drift)と呼ばれる重要な問題に悩まされ、初期、高レベルのトークンのエラーは、生成軌道を無関係な意味部分空間に不可逆的に分散させる。
本稿では,高密度なステップバイステップ検証を生成モデルに統合する新しいフレームワークPromiseを提案する。
論文 参考訳(メタデータ) (2026-01-08T07:38:46Z) - Closing the Performance Gap in Generative Recommenders with Collaborative Tokenization and Efficient Modeling [10.757287948514604]
本稿では,協調情報を学習項目表現に直接統合するコントラストトークン化手法を提案する。
また、アイテムデコーディングからタイムラインモデリングを分離する軽量な音声インスパイアされた生成モデルであるMARIUSを提案する。
論文 参考訳(メタデータ) (2025-08-12T17:06:55Z) - Cold-Start Recommendation with Knowledge-Guided Retrieval-Augmented Generation [40.29333074640531]
ColdRAGは、ドメイン固有の知識グラフを構築する、検索強化された生成アプローチである。
我々は,ColdRAGがリコールやNDCGの既存のゼロショットベースラインを超えることを示す。
このフレームワークは,知識グラフ推論とLLM生成を組み合わせ,コールドスタートレコメンデーションの実践的解決策を提供する。
論文 参考訳(メタデータ) (2025-05-27T06:23:26Z) - GenRec: Generative Sequential Recommendation with Large Language Models [4.381277509913139]
我々はGenerative Recommendation(GenRec)という新しいモデルを提案する。
GenRecは軽量で、低リソース環境で効果的にトレーニングするのに数時間しか必要としない。
我々の実験は、GenRecが様々な公開現実世界のデータセットを一般化することを実証した。
論文 参考訳(メタデータ) (2024-07-30T20:58:36Z) - DiffusER: Discrete Diffusion via Edit-based Reconstruction [88.62707047517914]
DiffusERは、拡散モデルに基づくテキストの編集ベースの生成モデルである。
機械翻訳、要約、スタイル転送にまたがるいくつかのタスクにおいて、自動回帰モデルと競合する可能性がある。
また、標準的な自己回帰モデルに適さないような、他の種類の世代も実行することができる。
論文 参考訳(メタデータ) (2022-10-30T16:55:23Z) - NeuroCounterfactuals: Beyond Minimal-Edit Counterfactuals for Richer
Data Augmentation [55.17069935305069]
本稿では,緩やかな反ファクトとして設計されたNeuroCounterfactualsを紹介する。
我々の新しい生成的アプローチは、言語モデル適応による感情制御による制約付き復号化の利点を橋渡しする。
論文 参考訳(メタデータ) (2022-10-22T06:29:21Z) - A Multi-Strategy based Pre-Training Method for Cold-Start Recommendation [28.337475919795008]
コールドスタート問題はレコメンデーションタスクの根本的な課題である。
グラフニューラルネットワーク(GNN)モデルにおける最近の自己教師付き学習(SSL)であるPT-GNNは、コールドスタート埋め込みを再構築するためにGNNモデルを事前訓練する。
本稿では,PT-GNNをモデルアーキテクチャやプレテキストタスクの観点から拡張する,マルチストラテジーに基づく冷間開始推薦(MPT)のための事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T08:11:55Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。