論文の概要: Modeling Long-term User Behaviors with Diffusion-driven Multi-interest Network for CTR Prediction
- arxiv url: http://arxiv.org/abs/2508.15311v1
- Date: Thu, 21 Aug 2025 07:10:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.221534
- Title: Modeling Long-term User Behaviors with Diffusion-driven Multi-interest Network for CTR Prediction
- Title(参考訳): CTR予測のための拡散駆動型多目的ネットワークによる長期ユーザ行動のモデル化
- Authors: Weijiang Lai, Beihong Jin, Yapeng Zhang, Yiyuan Zheng, Rui Zhao, Jian Dong, Jun Lei, Xingxing Wang,
- Abstract要約: 本稿では,DiffuMIN (Diffusion-driven Multi-Interest Network) を提案する。
オンラインA/BテストではDiffuMINが1.52%,CPMが1.10%増加した。
- 参考スコア(独自算出の注目度): 12.824307649883082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CTR (Click-Through Rate) prediction, crucial for recommender systems and online advertising, etc., has been confirmed to benefit from modeling long-term user behaviors. Nonetheless, the vast number of behaviors and complexity of noise interference pose challenges to prediction efficiency and effectiveness. Recent solutions have evolved from single-stage models to two-stage models. However, current two-stage models often filter out significant information, resulting in an inability to capture diverse user interests and build the complete latent space of user interests. Inspired by multi-interest and generative modeling, we propose DiffuMIN (Diffusion-driven Multi-Interest Network) to model long-term user behaviors and thoroughly explore the user interest space. Specifically, we propose a target-oriented multi-interest extraction method that begins by orthogonally decomposing the target to obtain interest channels. This is followed by modeling the relationships between interest channels and user behaviors to disentangle and extract multiple user interests. We then adopt a diffusion module guided by contextual interests and interest channels, which anchor users' personalized and target-oriented interest types, enabling the generation of augmented interests that align with the latent spaces of user interests, thereby further exploring restricted interest space. Finally, we leverage contrastive learning to ensure that the generated augmented interests align with users' genuine preferences. Extensive offline experiments are conducted on two public datasets and one industrial dataset, yielding results that demonstrate the superiority of DiffuMIN. Moreover, DiffuMIN increased CTR by 1.52% and CPM by 1.10% in online A/B testing. Our source code is available at https://github.com/laiweijiang/DiffuMIN.
- Abstract(参考訳): CTR(Click-Through Rate)予測は、リコメンデータシステムやオンライン広告等に不可欠なもので、長期的なユーザ行動のモデル化の恩恵を受けていることが確認されている。
それでも、ノイズ干渉の膨大な挙動と複雑さは、効率と効果を予測するのに困難をもたらす。
最近のソリューションは、シングルステージモデルから2ステージモデルへと進化してきた。
しかし、現在の2段階モデルは、しばしば重要な情報をフィルタリングするので、多様なユーザーの興味を捉え、完全な潜伏したユーザー関心の空間を構築することができない。
多目的・生成モデルに着想を得たDiffuMIN(Diffusion-driven Multi-Interest Network)を提案する。
具体的には,対象を直交分解して関心チャネルを得るターゲット指向多目的抽出手法を提案する。
これに続いて、関心チャネルとユーザ行動の関係をモデル化し、複数のユーザの興味を引き出す。
次に,ユーザのパーソナライズされた,ターゲット指向の関心タイプを固定する,文脈的関心チャネルと関心チャネルによってガイドされる拡散モジュールを採用し,ユーザ関心の潜在する空間と整合した拡張的関心の創出を可能にし,さらに制限された関心空間を探索する。
最後に、コントラスト学習を活用して、生成した増益がユーザの真の嗜好に合致することを確かめる。
大規模なオフライン実験は2つのパブリックデータセットと1つの産業データセットで行われ、DiffuMINの優位性を示す結果が得られた。
さらに、DiffuMINはCTRを1.52%、CPMを1.10%増加させた。
ソースコードはhttps://github.com/laiweijiang/DiffuMIN.comで公開されています。
関連論文リスト
- Multi-granularity Interest Retrieval and Refinement Network for Long-Term User Behavior Modeling in CTR Prediction [68.90783662117936]
クリックスルーレート(CTR)の予測は、オンラインパーソナライズプラットフォームにとって不可欠である。
近年の進歩は、リッチなユーザの振る舞いをモデル化することで、CTR予測の性能を大幅に改善できることを示している。
マルチグラニュラリティ興味検索ネットワーク(MIRRN)を提案する。
論文 参考訳(メタデータ) (2024-11-22T15:29:05Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。