論文の概要: Towards A Tri-View Diffusion Framework for Recommendation
- arxiv url: http://arxiv.org/abs/2511.20122v1
- Date: Tue, 25 Nov 2025 09:43:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.390103
- Title: Towards A Tri-View Diffusion Framework for Recommendation
- Title(参考訳): Tri-View Diffusion Framework for Recommendationに向けて
- Authors: Ximing Chen, Pui Ieng Lei, Yijun Sheng, Yanyan Liu, Zhiguo Gong,
- Abstract要約: 熱力学的な観点から,推奨モデルの完全性について実験的に検討する。
我々は、推奨自由エネルギーの生成を通じて、両方の要因を組み込んだ最小主義拡散フレームワークを提案する。
提案するフレームワークは,精度と効率の点で,ベースラインよりも明確な優位性を持っている。
- 参考スコア(独自算出の注目度): 11.919833476183761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models (DMs) have recently gained significant interest for their exceptional potential in recommendation tasks. This stems primarily from their prominent capability in distilling, modeling, and generating comprehensive user preferences. However, previous work fails to examine DMs in recommendation tasks through a rigorous lens. In this paper, we first experimentally investigate the completeness of recommender models from a thermodynamic view. We reveal that existing DM-based recommender models operate by maximizing the energy, while classic recommender models operate by reducing the entropy. Based on this finding, we propose a minimalistic diffusion framework that incorporates both factors via the maximization of Helmholtz free energy. Meanwhile, to foster the optimization, our reverse process is armed with a well-designed denoiser to maintain the inherent anisotropy, which measures the user-item cross-correlation in the context of bipartite graphs. Finally, we adopt an Acceptance-Rejection Gumbel Sampling Process (AR-GSP) to prioritize the far-outnumbered unobserved interactions for model robustness. AR-GSP integrates an acceptance-rejection sampling to ensure high-quality hard negative samples for general recommendation tasks, and a timestep-dependent Gumbel Softmax to handle an adaptive sampling strategy for diffusion models. Theoretical analyses and extensive experiments demonstrate that our proposed framework has distinct superiority over baselines in terms of accuracy and efficiency.
- Abstract(参考訳): 拡散モデル(DM)は、最近、レコメンデーションタスクにおける異常な可能性に対して大きな関心を集めている。
これは主に、蒸留、モデリング、および包括的なユーザー嗜好の生成において、その顕著な能力に起因している。
しかし、従来の研究は厳密なレンズを通して推奨タスクのDMを調べることに失敗した。
本稿では,熱力学的観点から,まず推奨モデルの完全性について実験的に検討する。
既存のDMベースのレコメンダモデルではエネルギーを最大化し,古典的なレコメンダモデルではエントロピーを最小化する。
この発見に基づいて、ヘルムホルツ自由エネルギーの最大化によって両方の因子を組み込む最小主義拡散フレームワークを提案する。
一方、最適化を促進するために、我々のリバースプロセスは、二部グラフのコンテキストにおけるユーザ-イム相互相関を測定する固有の異方性を維持するために、よく設計されたデノイザで武装している。
最後に,Acceptance-Rejection Gumbel Smpling Process (AR-GSP) を用いて,モデルロバストネスに対する非観測的相互作用を優先する。
AR-GSPは、一般的なレコメンデーションタスクにおける高品質なハードネガティブサンプルを確保するために、受け入れ回帰サンプリングと、拡散モデルに対する適応サンプリング戦略を扱うための時間に依存したGumbel Softmaxを統合している。
理論的解析と広範な実験により,提案フレームワークは,精度と効率の点で,ベースラインよりも顕著に優れていることが示された。
関連論文リスト
- G$^2$RPO: Granular GRPO for Precise Reward in Flow Models [74.21206048155669]
本稿では,サンプリング方向の高精度かつ包括的な報酬評価を実現する新しいグラニュラー-GRPO(G$2$RPO)フレームワークを提案する。
複数の拡散スケールで計算された利点を集約するマルチグラニュラリティ・アドバンテージ・インテグレーション・モジュールを導入する。
G$2$RPOは既存のフローベースGRPOベースラインを著しく上回る。
論文 参考訳(メタデータ) (2025-10-02T12:57:12Z) - Divergence Minimization Preference Optimization for Diffusion Model Alignment [66.31417479052774]
Divergence Minimization Preference Optimization (DMPO) は、逆KL分散を最小化して拡散モデルを整列する原理的手法である。
DMPOは、異なるベースモデルとテストセットで既存のテクニックを一貫して上回り、適合させることができる。
論文 参考訳(メタデータ) (2025-07-10T07:57:30Z) - Alleviating User-Sensitive bias with Fair Generative Sequential Recommendation Model [37.544371176013435]
新しい生成モデルパラダイムとしての拡散モデル(DM)はレコメンデーションシステムにおいて大きな成功を収めた。
本稿では,FairGENRecに基づくFairGENerative Sequence Recommendationモデルを提案する。
論文 参考訳(メタデータ) (2025-06-24T16:42:46Z) - Fake it till You Make it: Reward Modeling as Discriminative Prediction [49.31309674007382]
GAN-RMは、手動の嗜好アノテーションと明示的な品質次元工学を排除した効率的な報酬モデリングフレームワークである。
提案手法は,少数の対象サンプルを識別し,報酬モデルを訓練する。
実験では、GAN-RMが複数の主要なアプリケーションにまたがって有効であることを実証した。
論文 参考訳(メタデータ) (2025-06-16T17:59:40Z) - On the Asymptotic Mean Square Error Optimality of Diffusion Models [10.72484143420088]
生成前駆体としての拡散モデル(DM)は近年,タスクを認知する大きな可能性を示している。
本稿では, MSE-Optimal Conditional mean (CME) の構造から着想を得た新しい認知戦略を提案する。
結果のDMベースのデノイザは、トレーニング済みのDMを用いて便利に使用することができ、特に逆拡散ステップをトラッピングすることで高速である。
論文 参考訳(メタデータ) (2024-03-05T13:25:44Z) - Confronting Reward Overoptimization for Diffusion Models: A Perspective of Inductive and Primacy Biases [76.9127853906115]
拡散モデルと人間の嗜好のギャップを埋めることが、実用的生成への統合に不可欠である。
本稿では,拡散モデルの時間的帰納バイアスを利用したポリシー勾配アルゴリズムTDPO-Rを提案する。
実験の結果,報酬過小評価を緩和する手法が有効であることが示された。
論文 参考訳(メタデータ) (2024-02-13T15:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。