論文の概要: Enhancing guidance for missing data in diffusion-based sequential recommendation
- arxiv url: http://arxiv.org/abs/2601.15673v1
- Date: Thu, 22 Jan 2026 05:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.504821
- Title: Enhancing guidance for missing data in diffusion-based sequential recommendation
- Title(参考訳): 拡散型シーケンシャルレコメンデーションにおける欠落データに対するガイダンスの強化
- Authors: Qilong Yan, Yifei Xing, Dugang Liu, Jingpu Duan, Jian Yin,
- Abstract要約: 我々は,新しい非現実的注意規制拡散モデル(CARD)を提案する。
CARDは、ユーザシーケンス内のノイズを同時に識別し、抑制しながら、キーの興味を向けるポイントアイテムからの信号を増幅することに焦点を当てている。
本手法は,計算コストを伴わずに実世界のデータに有効である。
- 参考スコア(独自算出の注目度): 10.673207423895747
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary sequential recommendation methods are becoming more complex, shifting from classification to a diffusion-guided generative paradigm. However, the quality of guidance in the form of user information is often compromised by missing data in the observed sequences, leading to suboptimal generation quality. Existing methods address this by removing locally similar items, but overlook ``critical turning points'' in user interest, which are crucial for accurately predicting subsequent user intent. To address this, we propose a novel Counterfactual Attention Regulation Diffusion model (CARD), which focuses on amplifying the signal from key interest-turning-point items while concurrently identifying and suppressing noise within the user sequence. CARD consists of (1) a Dual-side Thompson Sampling method to identify sequences undergoing significant interest shift, and (2) a counterfactual attention mechanism for these sequences to quantify the importance of each item. In this manner, CARD provides the diffusion model with a high-quality guidance signal composed of dynamically re-weighted interaction vectors to enable effective generation. Experiments show our method works well on real-world data without being computationally expensive. Our code is available at https://github.com/yanqilong3321/CARD.
- Abstract(参考訳): 現代のシーケンシャルレコメンデーション手法は、分類から拡散誘導生成パラダイムへと移行し、より複雑になりつつある。
しかし、ユーザ情報の形式でのガイダンスの質は、観測されたシーケンス内の欠落データによってしばしば損なわれ、最適以下の生成品質をもたらす。
既存のメソッドは、ローカルに類似したアイテムを削除することでこの問題に対処するが、ユーザの関心事で‘クリティカルなターンポイント’を見落としてしまうため、その後のユーザの意図を正確に予測するのに不可欠である。
そこで本研究では,ユーザシーケンス内のノイズの同時同定と抑制を両立させながら,重要な注目ポイント項目からの信号の増幅に焦点をあてた,新規なCARD(Conserfactual Attention Regulation Diffusion Model)を提案する。
CARDは,(1)有意な利害シフトを行うシーケンスを識別するデュアルサイドのトンプソンサンプリング法,(2)各項目の重要性を定量化するための,これらのシーケンスに対する対実的注意機構から構成される。
このようにして、CARDは動的に再重み付けされた相互作用ベクトルからなる高品質な誘導信号で拡散モデルを提供し、効率的な生成を可能にする。
実験により,本手法は計算コストを伴わずに実世界のデータに有効であることが示された。
私たちのコードはhttps://github.com/yanqilong3321/CARD.comから入手可能です。
関連論文リスト
- FAIR: Focused Attention Is All You Need for Generative Recommendation [43.65370600297507]
注意を集中した最初の生成的推薦フレームワークを提案する。これは注意スコアを関連文脈に高め、無関係な状況に抑える。
具体的には、(1)標準変換器に組み込まれた集中型注意機構を提案し、QとKの2つの異なる注意重みを学習し、その差を最終的な注意スコアとして計算する。
4つの公開ベンチマークにおけるFAIRの有効性を検証し,既存手法と比較して優れた性能を示した。
論文 参考訳(メタデータ) (2025-12-12T03:25:12Z) - Distinguished Quantized Guidance for Diffusion-based Sequence Recommendation [7.6572888950554905]
拡散型シーケンスレコメンデーション(DiQDiff)のための分散量子ガイダンスを提案する。
DiQDiffは、ユーザ関心を理解するための堅牢なガイダンスを抽出し、DM内でパーソナライズされたユーザ関心のための優れたアイテムを生成することを目的としている。
先行するアプローチに対するDiQDiffの優れたレコメンデーション性能は、シーケンシャルなレコメンデーションタスクにおける有効性を示している。
論文 参考訳(メタデータ) (2025-01-29T14:20:42Z) - Breaking Determinism: Fuzzy Modeling of Sequential Recommendation Using Discrete State Space Diffusion Model [66.91323540178739]
シークエンシャルレコメンデーション(SR)は、ユーザーが過去の行動に基づいて興味を持つかもしれない項目を予測することを目的としている。
我々はSRを新しい情報理論の観点から再検討し、逐次モデリング手法がユーザの行動のランダム性と予測不可能性を適切に把握できないことを発見した。
ファジィ情報処理理論に触発された本論文では,制限を克服し,ユーザの関心事の進化をよりよく捉えるために,ファジィなインタラクションシーケンスの組を導入する。
論文 参考訳(メタデータ) (2024-10-31T14:52:01Z) - Dual Conditional Diffusion Models for Sequential Recommendation [63.82152785755723]
シーケンスレコメンデーションのための二重条件拡散モデル(DCRec)を提案する。
DCRecは2つの条件を前と逆の拡散プロセスに埋め込むことで暗黙的および明示的な情報を統合する。
これによってモデルは、明示的なユーザ-イテムインタラクションを活用してレコメンデーションプロセスをガイドしながら、価値あるシーケンシャルおよびコンテキスト情報を保持することができる。
論文 参考訳(メタデータ) (2024-10-29T11:51:06Z) - Long-Sequence Recommendation Models Need Decoupled Embeddings [49.410906935283585]
我々は、既存の長期推薦モデルにおいて無視された欠陥を識別し、特徴付ける。
埋め込みの単一のセットは、注意と表現の両方を学ぶのに苦労し、これら2つのプロセス間の干渉につながります。
本稿では,2つの異なる埋め込みテーブルを別々に学習し,注意と表現を完全に分離する,DARE(Decoupled Attention and Representation Embeddings)モデルを提案する。
論文 参考訳(メタデータ) (2024-10-03T15:45:15Z) - Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。