論文の概要: Modeling Item-Level Dynamic Variability with Residual Diffusion for Bundle Recommendation
- arxiv url: http://arxiv.org/abs/2507.03280v1
- Date: Fri, 04 Jul 2025 03:56:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.653218
- Title: Modeling Item-Level Dynamic Variability with Residual Diffusion for Bundle Recommendation
- Title(参考訳): バンドルレコメンデーションのための残留拡散を考慮したアイテムレベル動的変数のモデル化
- Authors: Dong Zhang, Lin Li, Ming Li, Xiaohui Tao, Meng Sun, Jimmy Xiangji Huang,
- Abstract要約: 本稿では,モデルに依存しない生成フレームワークとして,Residual Diffusion for Bundle Recommendation (RDiffBR)を提案する。
6つのBRモデルと4つのパブリックデータセットの実験から、RDiffBRは、バックボーンBRモデルのリコールとNDCGのパフォーマンスを最大23%改善することが示された。
- 参考スコア(独自算出の注目度): 20.49315938588095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing solutions for bundle recommendation(BR) have achieved remarkable effectiveness for predicting the user's preference for prebuilt bundles. However, bundle-item(B-I) affiliation will vary dynamically in real scenarios. For example, a bundle themed as 'casual outfit', may add 'hat' or remove 'watch' due to factors such as seasonal variations, changes in user pes or inventory adjustments. Our empirical study demonstrates that the performance of mainstream BR models will fluctuate or even decline regarding item-level variability. This paper makes the first attempt to referencaddress the above problem and proposes a novel Residual Diffusion for Bundle Recommendation(RDiffBR) as a model-agnostic generative framework which can assist a BR model in adapting this scenario. During the initial training of the BR model, RDiffBR employs a residual diffusion model to process the item-level bundle embeddings which are generated by BR model to represent bundle theme via a forward-reverse process. In the inference stage, RDiffBR reverses item-level bundle embeddings obtained by the well-trained bundle model under B-I variability scenarios to generate the effective item-level bundle embeddings. In particular, the residual connection in our residual approximator significantly enhances item-level bundle embeddings generation ability of BR models. Experiments on six BR models and four public datasets from different domains show that RDiffBR improves the performance of Recall and NDCG of backbone BR models by up to 23%, while only increased training time about 4%.Codes and datasets are available at https://anonymous.4open.science/r/RDiffBR.
- Abstract(参考訳): 既存のバンドルレコメンデーション(BR)ソリューションは,事前に構築したバンドルに対するユーザの好みを予測する上で,優れた効果を達成している。
しかし、バンドルイテム(B-I)アフィリエレーションは実際のシナリオで動的に変化する。
例えば、「カジュアルな衣装」と題された束は、季節的変化、ユーザーペスの変化、在庫調整などの要因により「hat」を追加したり、あるいは「watch」を取り除いたりすることができる。
我々の実証研究は、主流のBRモデルの性能がアイテムレベルの変動に関して変動または低下することを示します。
本稿では,このシナリオに適応する上でBRモデルを支援するモデルに依存しない生成フレームワークとして,新しいResidual Diffusion for Bundle Recommendation(RDiffBR)を提案する。
BRモデルの初期訓練では、RDiffBRは残差拡散モデルを用いて、BRモデルによって生成されたアイテムレベルのバンドル埋め込みを前向きのプロセスを通してバンドルテーマを表現するために処理する。
推理段階では、RDiffBRは、B-I変動シナリオの下で、よく訓練されたバンドルモデルによって得られたアイテムレベルのバンドル埋め込みを反転させ、有効アイテムレベルのバンドル埋め込みを生成する。
特に,残差近似器の残差接続は,BRモデルのアイテムレベルのバンドル埋め込み能力を大幅に向上させる。
6つのBRモデルと4つのパブリックデータセットの実験から、RDiffBRはRecallとNDCGのバックボーンBRモデルのパフォーマンスを最大23%改善し、トレーニング時間は4%向上した。
コードとデータセットはhttps://anonymous.4open.science/r/RDiffBRで公開されている。
関連論文リスト
- Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Linear Item-Item Model with Neural Knowledge for Session-based Recommendation [12.510697420439746]
セッションベースレコメンデーション(SBR)は、セッション内での短期的なインタラクションをモデル化することによって、ユーザのその後のアクションを予測することを目的としている。
本稿では,2種類の知識を統一線形フレームワークに統合した新しいSBRモデル,すなわち線形項目モデルとニューラル知識(リンク)を提案する。
Linkは6つの実世界のデータセットで最先端の線形SBRモデルより優れています。
論文 参考訳(メタデータ) (2025-04-21T12:34:57Z) - BRIDGE: Bundle Recommendation via Instruction-Driven Generation [2.115789253980982]
BRIDGEはバンドルレコメンデーションのための新しいフレームワークである。
これは2つの主要なコンポーネント、すなわち相関ベースのアイテムクラスタリングと擬似バンドル生成モジュールで構成されている。
その結果,5つのベンチマークデータセットにまたがる最先端のランキングベース手法よりも,モデルの優位性が検証された。
論文 参考訳(メタデータ) (2024-12-24T02:07:53Z) - Enhancing Attributed Graph Networks with Alignment and Uniformity Constraints for Session-based Recommendation [18.318271141864297]
セッションベースの勧告(SBR)は、匿名セッションに基づいてユーザの次のアクションを予測する。
ほとんどのSBRモデルは、アイテム表現を学ぶために短いセッションでコンテキスト遷移に依存する。
本稿では,AttrGAUというモデルに依存しないフレームワークを提案し,既存の属性に依存しないモデルにアイテム属性のモデリングの優位性をもたらす。
論文 参考訳(メタデータ) (2024-10-14T08:49:11Z) - DimeRec: A Unified Framework for Enhanced Sequential Recommendation via Generative Diffusion Models [39.49215596285211]
シークエンシャルレコメンデーション(SR:Sequential Recommendation)は、非定常的な歴史的相互作用に基づいてユーザの好みに合わせてレコメンデーションを調整することによって、レコメンデーションシステムにおいて重要な役割を担っている。
誘導抽出モジュール(GEM)と生成拡散凝集モジュール(DAM)を組み合わせたDimeRecという新しいフレームワークを提案する。
我々の数値実験により、DimeRecは3つの公開データセットで確立されたベースライン法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2024-08-22T06:42:09Z) - A New Learning Paradigm for Foundation Model-based Remote Sensing Change
Detection [54.01158175996638]
変化検出(CD)は、土地被覆の動的過程を観察し解析するための重要な課題である。
本稿では,基盤モデルに基づくCD適応フレームワークであるBi-Temporal Adapter Network (BAN)を提案する。
論文 参考訳(メタデータ) (2023-12-02T15:57:17Z) - Diff-Instruct: A Universal Approach for Transferring Knowledge From
Pre-trained Diffusion Models [77.83923746319498]
本稿では,任意の生成モデルの学習を指導するDiff-Instructというフレームワークを提案する。
Diff-Instructは、最先端の単一ステップ拡散モデルであることを示す。
GANモデルの精製実験により、Diff-InstructはGANモデルの事前訓練されたジェネレータを一貫して改善できることが示されている。
論文 参考訳(メタデータ) (2023-05-29T04:22:57Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Bundle Recommendation with Graph Convolutional Networks [71.95344006365914]
既存のソリューションは、モデルパラメータを共有したり、マルチタスクで学習することで、ユーザーと対話モデリングをバンドルレコメンデーションに統合します。
本稿では,バンドルレコメンデーションのためのBGCN(textittextBFBundle textBFGraph textBFConvolutional textBFNetwork)というグラフニューラルネットワークモデルを提案する。
論文 参考訳(メタデータ) (2020-05-07T13:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。