論文の概要: Multi-Modal Multi-Behavior Sequential Recommendation with Conditional Diffusion-Based Feature Denoising
- arxiv url: http://arxiv.org/abs/2508.05352v1
- Date: Thu, 07 Aug 2025 12:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.863835
- Title: Multi-Modal Multi-Behavior Sequential Recommendation with Conditional Diffusion-Based Feature Denoising
- Title(参考訳): 条件付き拡散に基づく特徴記述を用いたマルチモーダルマルチビヘイビアシーケンスレコメンデーション
- Authors: Xiaoxi Cui, Weihai Lu, Yu Tong, Yiheng Li, Zhejun Zhao,
- Abstract要約: 本稿では,マルチモーダルマルチビヘイビアシーケンシャルレコメンデーションの問題に焦点をあてる。
マルチモーダルマルチビヘイビアシーケンスレコメンデーションモデル(M$3$BSR)を提案する。
実験結果から,M$3$BSRはベンチマークデータセット上で既存の最先端手法を著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 1.4207530018625354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The sequential recommendation system utilizes historical user interactions to predict preferences. Effectively integrating diverse user behavior patterns with rich multimodal information of items to enhance the accuracy of sequential recommendations is an emerging and challenging research direction. This paper focuses on the problem of multi-modal multi-behavior sequential recommendation, aiming to address the following challenges: (1) the lack of effective characterization of modal preferences across different behaviors, as user attention to different item modalities varies depending on the behavior; (2) the difficulty of effectively mitigating implicit noise in user behavior, such as unintended actions like accidental clicks; (3) the inability to handle modality noise in multi-modal representations, which further impacts the accurate modeling of user preferences. To tackle these issues, we propose a novel Multi-Modal Multi-Behavior Sequential Recommendation model (M$^3$BSR). This model first removes noise in multi-modal representations using a Conditional Diffusion Modality Denoising Layer. Subsequently, it utilizes deep behavioral information to guide the denoising of shallow behavioral data, thereby alleviating the impact of noise in implicit feedback through Conditional Diffusion Behavior Denoising. Finally, by introducing a Multi-Expert Interest Extraction Layer, M$^3$BSR explicitly models the common and specific interests across behaviors and modalities to enhance recommendation performance. Experimental results indicate that M$^3$BSR significantly outperforms existing state-of-the-art methods on benchmark datasets.
- Abstract(参考訳): シーケンシャルレコメンデーションシステムは、過去のユーザインタラクションを利用して好みを予測する。
多様なユーザ行動パターンをリッチなマルチモーダル情報と統合して、シーケンシャルなレコメンデーションの精度を高めることは、新しくて挑戦的な研究方向である。
本論文は,(1) 異なる項目のモダリティに対するユーザの注意が行動によって異なること,(2) 偶発的なクリックのような意図しない動作などのユーザ行動における暗黙的なノイズを効果的に緩和することが困難であること,(3) マルチモーダル表現におけるモダリティノイズの扱いが,ユーザの嗜好の正確なモデリングにさらに影響を与えること,といった課題に対処することを目的とした,マルチモーダルなマルチビヘイビアシーケンシャルレコメンデーションの問題に焦点を当てる。
これらの課題に対処するため、我々はM$3$BSR(Multi-Modal Multi-Behavior Sequential Recommendation Model)を提案する。
このモデルはまず条件付き拡散モードデノイング層を用いてマルチモーダル表現のノイズを除去する。
その後、深い行動情報を用いて、浅い行動データの雑音化を誘導し、条件拡散行動の騒音による暗黙のフィードバックにおけるノイズの影響を軽減する。
最後に、M$^3$BSRはMulti-Expert Interest extract Layerを導入することで、行動やモダリティの共通性と特定の関心をモデル化し、レコメンデーションパフォーマンスを向上させる。
実験結果から,M$^3$BSRはベンチマークデータセット上で既存の最先端手法よりも有意に優れていたことが示唆された。
関連論文リスト
- Multimodal Difference Learning for Sequential Recommendation [5.243083216855681]
ユーザの関心とアイテムの関係は、さまざまなモダリティによって異なる、と我々は主張する。
本稿では,MDSRec のシークエンシャルレコメンデーションのための新しいマルチモーダルラーニングフレームワークを提案する。
5つの実世界のデータセットの結果は、最先端のベースラインよりもMDSRecの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-12-11T05:08:19Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Behavior-Contextualized Item Preference Modeling for Multi-Behavior Recommendation [30.715182718492244]
本稿では,マルチビヘイビア・レコメンデーションのためのビヘイビア・コンテクスチュアライズド・アイテム・プライオリティ・モデリング(BCIPM)を提案する。
提案する行動文脈化項目選好ネットワークは,それぞれの行動の中でユーザの特定の項目選好を識別し,学習する。
その後、最終勧告の目的行動に関連する嗜好のみを考慮し、補助行動からノイズを著しく低減する。
論文 参考訳(メタデータ) (2024-04-28T12:46:36Z) - TruthSR: Trustworthy Sequential Recommender Systems via User-generated Multimodal Content [21.90660366765994]
ノイズの多いユーザ生成マルチモーダルコンテンツによる信頼性の高いシーケンシャルレコメンデーション手法を提案する。
具体的には、ノイズ干渉を軽減するために、ユーザ生成したマルチモーダルコンテンツの一貫性と相補性を捉える。
さらに,主観的ユーザ視点と客観的項目視点を統合した信頼性の高い意思決定機構を設計する。
論文 参考訳(メタデータ) (2024-04-26T08:23:36Z) - LD4MRec: Simplifying and Powering Diffusion Model for Multimedia Recommendation [6.914898966090197]
マルチメディアレコメンデーションのための光拡散モデル(LD4MRec)を提案する。
LD4MRecはフォワードフリー推論戦略を採用しており、観測されたノイズの振る舞いから直接将来の振る舞いを予測する。
3つの実世界のデータセットで実施された実験は、LD4MRecの有効性を示した。
論文 参考訳(メタデータ) (2023-09-27T02:12:41Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Diffusion Recommender Model [85.9640416600725]
そこで我々は,DiffRecと呼ばれる新しい拡散レコメンダモデルを提案し,その生成過程を認知的に学習する。
ユーザインタラクションにおけるパーソナライズされた情報を維持するため、DiffRecは追加のノイズを低減し、画像合成のような純粋なノイズに対するユーザのインタラクションを損なうことを避ける。
論文 参考訳(メタデータ) (2023-04-11T04:31:00Z) - Diffusion Action Segmentation [63.061058214427085]
本稿では,このような反復的洗練の本質的な精神を共用した拡散モデルによる新しい枠組みを提案する。
このフレームワークでは、入力された映像の特徴を条件としてランダムノイズから行動予測を反復的に生成する。
論文 参考訳(メタデータ) (2023-03-31T10:53:24Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。