論文の概要: On Efficiency-Effectiveness Trade-off of Diffusion-based Recommenders
- arxiv url: http://arxiv.org/abs/2510.17245v1
- Date: Mon, 20 Oct 2025 07:35:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.350285
- Title: On Efficiency-Effectiveness Trade-off of Diffusion-based Recommenders
- Title(参考訳): 拡散型レコメンダの効率効果トレードオフについて
- Authors: Wenyu Mao, Jiancan Wu, Guoqing Hu, Wei Ji, Xiang Wang,
- Abstract要約: 本稿では,事前学習時にデノナイジング機能を円滑にすることで,一段階生成を実現する2段階フレームワークであるTA-Recを提案する。
また,嗜好ペアの類似性やタイムステップに基づいて,ユーザの嗜好を適応的に調整する適応的選好アライメント(APA)も導入する。
TA-Recの2段階の目的は、離散化エラーによって引き起こされるトレードオフを効果的に軽減し、拡散に基づくレコメンデータの効率性と有効性を高めることを証明する実験である。
- 参考スコア(独自算出の注目度): 21.035269837829638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models have emerged as a powerful paradigm for generative sequential recommendation, which typically generate next items to recommend guided by user interaction histories with a multi-step denoising process. However, the multi-step process relies on discrete approximations, introducing discretization error that creates a trade-off between computational efficiency and recommendation effectiveness. To address this trade-off, we propose TA-Rec, a two-stage framework that achieves one-step generation by smoothing the denoising function during pretraining while alleviating trajectory deviation by aligning with user preferences during fine-tuning. Specifically, to improve the efficiency without sacrificing the recommendation performance, TA-Rec pretrains the denoising model with Temporal Consistency Regularization (TCR), enforcing the consistency between the denoising results across adjacent steps. Thus, we can smooth the denoising function to map the noise as oracle items in one step with bounded error. To further enhance effectiveness, TA-Rec introduces Adaptive Preference Alignment (APA) that aligns the denoising process with user preference adaptively based on preference pair similarity and timesteps. Extensive experiments prove that TA-Rec's two-stage objective effectively mitigates the discretization errors-induced trade-off, enhancing both efficiency and effectiveness of diffusion-based recommenders.
- Abstract(参考訳): 拡散モデルは、生成シーケンシャルなレコメンデーションのための強力なパラダイムとして現れており、通常は、ユーザインタラクション履歴とマルチステップのデノベーションプロセスによってガイドされる推奨項目を生成する。
しかし、マルチステッププロセスは離散近似に依存し、離散化誤差を導入し、計算効率とレコメンデーション効率のトレードオフを生み出す。
このトレードオフに対処するため, TA-Rec は, 微調整時にユーザの好みに合わせることで軌道偏差を緩和しつつ, 事前学習時にデノナイジング機能を円滑にすることで, ワンステップ生成を実現する2段階のフレームワークである。
具体的には,レコメンデーション性能を犠牲にすることなく効率を向上させるため,TA-Recは時間整合正則化(TCR)による復調モデルを事前訓練し,隣接ステップ間の復調結果の整合性を高める。
したがって、雑音を1ステップで有界誤差でオラクルアイテムとしてマッピングするために、雑音を緩和する関数をスムーズにすることができる。
さらに有効性を高めるために、TA-Recは、好みペアの類似性とタイムステップに基づいて、デノナイジングプロセスとユーザの好みを適応的に調整するAdaptive Preference Alignment (APA)を導入している。
TA-Recの2段階の目的は、離散化エラーによって引き起こされるトレードオフを効果的に軽減し、拡散に基づくレコメンデーターの効率性と有効性を高めることを証明する。
関連論文リスト
- Empowering Denoising Sequential Recommendation with Large Language Model Embeddings [18.84444501128626]
シーケンシャルレコメンデーションは、ユーザとイテムのインタラクションにおけるシーケンシャルパターンをモデル化することで、ユーザの好みを捉えることを目的としている。
ノイズの影響を低減するために,ノイズのある項目を明示的に識別・除去することを提案する研究もある。
協調情報と意味情報を統合したIADSR(Interest Alignment for Denoising Sequential Recommendation)を提案する。
論文 参考訳(メタデータ) (2025-10-05T15:10:51Z) - Debiasing Multimodal Large Language Models via Noise-Aware Preference Optimization [31.741110625305186]
本稿では、優先最適化のパラダイムを用いて、モダリティバイアス問題を解決することを提案する。
具体的には、まず摂動を導入し、特定のモダリティの情報量を減らすことでデータセットを構築する。
自動構築したデータにおける避けられないノイズに対処するために、ノイズロバストな平均絶対誤差と直接選好最適化における二項交叉エントロピーを組み合わせる。
論文 参考訳(メタデータ) (2025-03-23T04:00:11Z) - Dynamic Noise Preference Optimization for LLM Self-Improvement via Synthetic Data [51.62162460809116]
我々は、イテレーション間で一貫した改善を保証するために、動的ノイズ優先最適化(DNPO)を導入します。
Zephyr-7Bでの実験では、DNPOは既存の手法を一貫して上回り、平均性能は2.6%向上した。
DNPOは、GPT-4評価のベースラインに比べて29.4%のウィンロス率差で、モデル生成データの品質が大幅に向上したことを示している。
論文 参考訳(メタデータ) (2025-02-08T01:20:09Z) - Dual Conditional Diffusion Models for Sequential Recommendation [63.82152785755723]
シーケンスレコメンデーションのための二重条件拡散モデル(DCRec)を提案する。
DCRecは2つの条件を前と逆の拡散プロセスに埋め込むことで暗黙的および明示的な情報を統合する。
これによってモデルは、明示的なユーザ-イテムインタラクションを活用してレコメンデーションプロセスをガイドしながら、価値あるシーケンシャルおよびコンテキスト情報を保持することができる。
論文 参考訳(メタデータ) (2024-10-29T11:51:06Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Conditional Denoising Diffusion for Sequential Recommendation [62.127862728308045]
GAN(Generative Adversarial Networks)とVAE(VAE)の2つの顕著な生成モデル
GANは不安定な最適化に苦しむ一方、VAEは後続の崩壊と過度に平らな世代である。
本稿では,シーケンスエンコーダ,クロスアテンティブデノナイジングデコーダ,ステップワイズディフューザを含む条件付きデノナイジング拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T15:32:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。