論文の概要: Fading to Grow: Growing Preference Ratios via Preference Fading Discrete Diffusion for Recommendation
- arxiv url: http://arxiv.org/abs/2509.26063v1
- Date: Tue, 30 Sep 2025 10:37:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.102785
- Title: Fading to Grow: Growing Preference Ratios via Preference Fading Discrete Diffusion for Recommendation
- Title(参考訳): Fading to Grow: Recommendation における Preference Farete Diffusion による Preference Ratios の育成
- Authors: Guoqing Hu, An Zhang. Shuchang Liu, Wenyu Mao, Jiancan Wu, Xun Yang, Xiang Li, Lantao Hu, Han Li, Kun Gai, Xiang Wang,
- Abstract要約: PreferGrowは個別の拡散に基づくレコメンデーションシステムで、個別のアイテムコーパスよりもユーザの好みを増すことによって、好みの比率をモデル化する。
5つのベンチマークデータセットにまたがって、最先端の拡散ベースのレコメンデータに対して、一貫したパフォーマンス向上を示す。
- 参考スコア(独自算出の注目度): 37.72177895596729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommenders aim to rank items from a discrete item corpus in line with user interests, yet suffer from extremely sparse user preference data. Recent advances in diffusion models have inspired diffusion-based recommenders, which alleviate sparsity by injecting noise during a forward process to prevent the collapse of perturbed preference distributions. However, current diffusion-based recommenders predominantly rely on continuous Gaussian noise, which is intrinsically mismatched with the discrete nature of user preference data in recommendation. In this paper, building upon recent advances in discrete diffusion, we propose PreferGrow, a discrete diffusion-based recommender system that models preference ratios by fading and growing user preferences over the discrete item corpus. PreferGrow differs from existing diffusion-based recommenders in three core aspects: (1) Discrete modeling of preference ratios: PreferGrow models relative preference ratios between item pairs, rather than operating in the item representation or raw score simplex. This formulation aligns naturally with the discrete and ranking-oriented nature of recommendation tasks. (2) Perturbing via preference fading: Instead of injecting continuous noise, PreferGrow fades user preferences by replacing the preferred item with alternatives -- physically akin to negative sampling -- thereby eliminating the need for any prior noise assumption. (3) Preference reconstruction via growing: PreferGrow reconstructs user preferences by iteratively growing the preference signals from the estimated ratios. PreferGrow offers a well-defined matrix-based formulation with theoretical guarantees on Markovianity and reversibility, and it demonstrates consistent performance gains over state-of-the-art diffusion-based recommenders across five benchmark datasets, highlighting both its theoretical soundness and empirical effectiveness.
- Abstract(参考訳): Recommendersは、個別のアイテムコーパスからのアイテムのランク付けをユーザーの興味に則って行おうとするが、極めて少ないユーザー嗜好データに悩まされている。
拡散モデルの最近の進歩は拡散に基づくレコメンデータにインスピレーションを与えており、前処理中にノイズを注入することで、摂動された嗜好分布の崩壊を防止することで、疎結合を緩和している。
しかし、現在の拡散に基づくレコメンデーションは、主に連続ガウスノイズに依存しており、これは本質的にユーザーの好みデータの離散的な性質と一致しない。
本稿では,近年の個別拡散の進展を踏まえ,個別拡散に基づく推薦システムであるPreferGrowを提案する。
PreferGrowは,(1)選好率の離散モデリング: 項目表現や生スコア単純な操作ではなく,項目ペア間の相対選好比をPreferGrowモデルでモデル化する。
この定式化は、レコメンデーションタスクの離散的でランク指向の性質と自然に一致する。
2) 好みのフェーディングによる摂動: 連続的なノイズを注入する代わりに、PreferGrowは、好みのアイテムを(物理的にはネガティブなサンプリングに似た)代替品に置き換えることで、ユーザの好みを損なう。
(3) 成長による嗜好の再構築:PreferGrowは、推定比から嗜好信号を反復的に成長させることにより、ユーザの嗜好を再構築する。
PreferGrowは、マルコビアン性と可逆性に関する理論的保証を備えた、明確に定義された行列ベースの定式化を提供する。
関連論文リスト
- Adaptive Margin RLHF via Preference over Preferences [44.328333474444214]
好みの強さをモデル化することで、より一般化し、より忠実なアライメントにつながると我々は主張する。
本稿では, DPO-PoP(Direct Preference Optimization, DPO-PoP)の拡張について紹介する。
論文 参考訳(メタデータ) (2025-09-26T19:03:24Z) - Preference Trajectory Modeling via Flow Matching for Sequential Recommendation [50.077447974294586]
シーケンスレコメンデーションは、履歴的なインタラクションシーケンスに基づいて、各ユーザの次の項目を予測する。
FlowRecはシンプルだが効果的なシーケンシャルレコメンデーションフレームワークである。
我々は,ガウス雑音に代えてパーソナライズされた行動に基づく事前分布を構築し,ユーザの嗜好軌跡をモデル化するためのベクトル場を学習する。
論文 参考訳(メタデータ) (2025-08-25T02:55:42Z) - Flow Matching based Sequential Recommender Model [54.815225661065924]
本研究では,フローマッチングに基づくフローマッチングモデルであるFMRecを紹介する。
FMRecは最先端の手法よりも平均6.53%改善している。
論文 参考訳(メタデータ) (2025-05-22T06:53:03Z) - Preference Diffusion for Recommendation [50.8692409346126]
DMベースのレコメンデータに適した最適化対象であるPreferDiffを提案する。
PreferDiffは、BPRをログライクなランキング目標に変換することで、ユーザの好みをよりよく把握する。
これはDMベースのレコメンデーション向けに特別に設計された、パーソナライズされたランキングの損失である。
論文 参考訳(メタデータ) (2024-10-17T01:02:04Z) - Diffusion-based Contrastive Learning for Sequential Recommendation [6.3482831836623355]
本稿では,CaDiRecという,文脈対応拡散に基づく逐次推薦のためのコントラスト学習を提案する。
CaDiRecは、コンテキスト対応拡散モデルを使用して、シーケンス内の所定の位置に対する代替アイテムを生成する。
フレームワーク全体をエンドツーエンドでトレーニングし、拡散モデルとレコメンデーションモデルの間でアイテムの埋め込みを共有します。
論文 参考訳(メタデータ) (2024-05-15T14:20:37Z) - ROPO: Robust Preference Optimization for Large Language Models [59.10763211091664]
外部モデルの助けを借りずにノイズ耐性とノイズサンプルのフィルタリングを統合する反復アライメント手法を提案する。
Mistral-7BとLlama-2-7Bで広く使われている3つのデータセットの実験では、ROPOが既存の嗜好アライメント法を大幅に上回っていることが示されている。
論文 参考訳(メタデータ) (2024-04-05T13:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。