論文の概要: Addressing Missing Data Issue for Diffusion-based Recommendation
- arxiv url: http://arxiv.org/abs/2505.12283v1
- Date: Sun, 18 May 2025 07:45:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.141609
- Title: Addressing Missing Data Issue for Diffusion-based Recommendation
- Title(参考訳): 拡散型レコメンデーションの欠落データ問題への取り組み
- Authors: Wenyu Mao, Zhengyi Yang, Jiancan Wu, Haozhe Liu, Yancheng Yuan, Xiang Wang, Xiangnan He,
- Abstract要約: 両面トンプソンサンプリングベース拡散モデル(TDM)を提案する。
TDMは誘導信号の余分な欠落データをシミュレートし、拡散モデルが外挿によって既存の欠落データを処理できるようにする。
実験と理論的解析は、連続的なレコメンデーションで欠落データに対処する上で、TDMの有効性を検証する。
- 参考スコア(独自算出の注目度): 26.605773432154518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have shown significant potential in generating oracle items that best match user preference with guidance from user historical interaction sequences. However, the quality of guidance is often compromised by unpredictable missing data in observed sequence, leading to suboptimal item generation. Since missing data is uncertain in both occurrence and content, recovering it is impractical and may introduce additional errors. To tackle this challenge, we propose a novel dual-side Thompson sampling-based Diffusion Model (TDM), which simulates extra missing data in the guidance signals and allows diffusion models to handle existing missing data through extrapolation. To preserve user preference evolution in sequences despite extra missing data, we introduce Dual-side Thompson Sampling to implement simulation with two probability models, sampling by exploiting user preference from both item continuity and sequence stability. TDM strategically removes items from sequences based on dual-side Thompson sampling and treats these edited sequences as guidance for diffusion models, enhancing models' robustness to missing data through consistency regularization. Additionally, to enhance the generation efficiency, TDM is implemented under the denoising diffusion implicit models to accelerate the reverse process. Extensive experiments and theoretical analysis validate the effectiveness of TDM in addressing missing data in sequential recommendations.
- Abstract(参考訳): 拡散モデルは,ユーザの嗜好とユーザの過去のインタラクションシーケンスからのガイダンスに最もよくマッチするオラクルアイテムを生成する上で,大きな可能性を示している。
しかし、ガイダンスの質は、観測されたシーケンスにおける予測不能なデータによってしばしば損なわれ、最適でない項目の生成につながる。
欠落したデータは、発生と内容の両方で不確実であるため、回復は非現実的であり、追加のエラーを起こす可能性がある。
この課題に対処するために,2面のトンプソンサンプリングに基づく拡散モデル (Diffusion Model, TDM) を提案する。
余分なデータの欠落にもかかわらず、ユーザの嗜好の進化を維持するために、Dual-side Thompson Smplingを導入し、2つの確率モデルでシミュレーションを行い、アイテムの連続性とシーケンス安定性の両方からユーザの嗜好を活かしてサンプリングする。
TDMは、二重側トンプソンサンプリングに基づくシーケンスからアイテムを戦略的に取り除き、これらの編集されたシーケンスを拡散モデルのガイダンスとして扱い、一貫性の正則化を通じてモデルの欠落データに対する堅牢性を高める。
さらに, 生成効率を向上させるために, 拡散暗黙モデルの下でTDMを実装し, 逆過程を高速化する。
逐次的レコメンデーションにおける欠落データに対するTDMの有効性を検証する実験と理論的解析を行った。
関連論文リスト
- Joint Models for Handling Non-Ignorable Missing Data using Bayesian Additive Regression Trees: Application to Leaf Photosynthetic Traits Data [0.0]
欠落したデータに対する対処は、予測分析において大きな課題となる。
データがランダムに欠落している場合、データのモデリングとデータインジケータの欠落が不可欠である。
本稿では,データ不足を伴うデータ処理のための選択モデルに基づく2つの手法を提案する。
論文 参考訳(メタデータ) (2024-12-19T15:26:55Z) - Breaking Determinism: Fuzzy Modeling of Sequential Recommendation Using Discrete State Space Diffusion Model [66.91323540178739]
シークエンシャルレコメンデーション(SR)は、ユーザーが過去の行動に基づいて興味を持つかもしれない項目を予測することを目的としている。
我々はSRを新しい情報理論の観点から再検討し、逐次モデリング手法がユーザの行動のランダム性と予測不可能性を適切に把握できないことを発見した。
ファジィ情報処理理論に触発された本論文では,制限を克服し,ユーザの関心事の進化をよりよく捉えるために,ファジィなインタラクションシーケンスの組を導入する。
論文 参考訳(メタデータ) (2024-10-31T14:52:01Z) - Dual Conditional Diffusion Models for Sequential Recommendation [63.82152785755723]
シーケンスレコメンデーションのための二重条件拡散モデル(DCRec)を提案する。
DCRecは2つの条件を前と逆の拡散プロセスに埋め込むことで暗黙的および明示的な情報を統合する。
これによってモデルは、明示的なユーザ-イテムインタラクションを活用してレコメンデーションプロセスをガイドしながら、価値あるシーケンシャルおよびコンテキスト情報を保持することができる。
論文 参考訳(メタデータ) (2024-10-29T11:51:06Z) - Pruning then Reweighting: Towards Data-Efficient Training of Diffusion Models [33.09663675904689]
データセットプルーニングの観点から,効率的な拡散訓練について検討する。
GAN(Generative Adversarial Network)のような生成モデルに対するデータ効率トレーニングの原則に着想を得て、まず、GANで使用されるデータ選択スキームをDMトレーニングに拡張する。
生成性能をさらに向上するため,クラスワイド・リウェイト方式を採用する。
論文 参考訳(メタデータ) (2024-09-27T20:21:19Z) - Constrained Diffusion Models via Dual Training [80.03953599062365]
拡散プロセスは、トレーニングデータセットのバイアスを反映したサンプルを生成する傾向がある。
所望の分布に基づいて拡散制約を付与し,制約付き拡散モデルを構築する。
本稿では,制約付き拡散モデルを用いて,目的と制約の最適なトレードオフを実現する混合データ分布から新しいデータを生成することを示す。
論文 参考訳(メタデータ) (2024-08-27T14:25:42Z) - Self-Supervision Improves Diffusion Models for Tabular Data Imputation [20.871219616589986]
本稿では,自己教師型計算拡散モデル (SimpDM for brevity) という高度な拡散モデルを提案する。
ノイズに対する感度を緩和するために、モデルを規則化し、一貫した安定な計算予測を保証する自己教師付きアライメント機構を導入する。
我々はまた、SimpDM内で慎重に設計された状態依存データ拡張戦略を導入し、限られたデータを扱う際の拡散モデルの堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-25T13:06:30Z) - DiffImpute: Tabular Data Imputation With Denoising Diffusion Probabilistic Model [9.908561639396273]
DiffImputeという新しい拡散確率モデル(DDPM)を提案する。
既存のデータの信頼性を損なうことなく、欠落したエントリに対して信頼できる警告を生成する。
Missing Completely At Random (MCAR) と Missing At Random (MAR) の様々な設定に適用できる。
論文 参考訳(メタデータ) (2024-03-20T08:45:31Z) - Diffusion Augmentation for Sequential Recommendation [47.43402785097255]
本稿では,より高品質な生成のためのDiffuASR(Diffusion Augmentation for Sequential Recommendation)を提案する。
DiffuASRによる強化データセットは、複雑なトレーニング手順なしで、シーケンシャルレコメンデーションモデルを直接トレーニングするために使用することができる。
3つの逐次レコメンデーションモデルを用いた3つの実世界のデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-09-22T13:31:34Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。