論文の概要: Multi-Modal Multi-Behavior Sequential Recommendation with Conditional Diffusion-Based Feature Denoising
- arxiv url: http://arxiv.org/abs/2508.05352v1
- Date: Thu, 07 Aug 2025 12:58:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.863835
- Title: Multi-Modal Multi-Behavior Sequential Recommendation with Conditional Diffusion-Based Feature Denoising
- Title(参考訳): 条件付き拡散に基づく特徴記述を用いたマルチモーダルマルチビヘイビアシーケンスレコメンデーション
- Authors: Xiaoxi Cui, Weihai Lu, Yu Tong, Yiheng Li, Zhejun Zhao,
- Abstract要約: 本稿では,マルチモーダルマルチビヘイビアシーケンシャルレコメンデーションの問題に焦点をあてる。
マルチモーダルマルチビヘイビアシーケンスレコメンデーションモデル(M$3$BSR)を提案する。
実験結果から,M$3$BSRはベンチマークデータセット上で既存の最先端手法を著しく上回ることがわかった。
- 参考スコア(独自算出の注目度): 1.4207530018625354
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The sequential recommendation system utilizes historical user interactions to predict preferences. Effectively integrating diverse user behavior patterns with rich multimodal information of items to enhance the accuracy of sequential recommendations is an emerging and challenging research direction. This paper focuses on the problem of multi-modal multi-behavior sequential recommendation, aiming to address the following challenges: (1) the lack of effective characterization of modal preferences across different behaviors, as user attention to different item modalities varies depending on the behavior; (2) the difficulty of effectively mitigating implicit noise in user behavior, such as unintended actions like accidental clicks; (3) the inability to handle modality noise in multi-modal representations, which further impacts the accurate modeling of user preferences. To tackle these issues, we propose a novel Multi-Modal Multi-Behavior Sequential Recommendation model (M$^3$BSR). This model first removes noise in multi-modal representations using a Conditional Diffusion Modality Denoising Layer. Subsequently, it utilizes deep behavioral information to guide the denoising of shallow behavioral data, thereby alleviating the impact of noise in implicit feedback through Conditional Diffusion Behavior Denoising. Finally, by introducing a Multi-Expert Interest Extraction Layer, M$^3$BSR explicitly models the common and specific interests across behaviors and modalities to enhance recommendation performance. Experimental results indicate that M$^3$BSR significantly outperforms existing state-of-the-art methods on benchmark datasets.
- Abstract(参考訳): シーケンシャルレコメンデーションシステムは、過去のユーザインタラクションを利用して好みを予測する。
多様なユーザ行動パターンをリッチなマルチモーダル情報と統合して、シーケンシャルなレコメンデーションの精度を高めることは、新しくて挑戦的な研究方向である。
本論文は,(1) 異なる項目のモダリティに対するユーザの注意が行動によって異なること,(2) 偶発的なクリックのような意図しない動作などのユーザ行動における暗黙的なノイズを効果的に緩和することが困難であること,(3) マルチモーダル表現におけるモダリティノイズの扱いが,ユーザの嗜好の正確なモデリングにさらに影響を与えること,といった課題に対処することを目的とした,マルチモーダルなマルチビヘイビアシーケンシャルレコメンデーションの問題に焦点を当てる。
これらの課題に対処するため、我々はM$3$BSR(Multi-Modal Multi-Behavior Sequential Recommendation Model)を提案する。
このモデルはまず条件付き拡散モードデノイング層を用いてマルチモーダル表現のノイズを除去する。
その後、深い行動情報を用いて、浅い行動データの雑音化を誘導し、条件拡散行動の騒音による暗黙のフィードバックにおけるノイズの影響を軽減する。
最後に、M$^3$BSRはMulti-Expert Interest extract Layerを導入することで、行動やモダリティの共通性と特定の関心をモデル化し、レコメンデーションパフォーマンスを向上させる。
実験結果から,M$^3$BSRはベンチマークデータセット上で既存の最先端手法よりも有意に優れていたことが示唆された。
関連論文リスト
- From Agnostic to Specific: Latent Preference Diffusion for Multi-Behavior Sequential Recommendation [28.437926520491445]
マルチビヘイビアシーケンシャルレコメンデーション(MBSR)は,ユーザのマルチビヘイビアシーケンスの動的および異種相互作用を学習することを目的としている。
最近の懸念は、行動修正から行動特異的なレコメンデーションへとシフトしている。
我々は、好み生成を導くフレームワークベースの拡散モデルである textbfFatsMB を提案する。
論文 参考訳(メタデータ) (2026-02-26T15:48:09Z) - Test-time Adaptive Hierarchical Co-enhanced Denoising Network for Reliable Multimodal Classification [55.56234913868664]
マルチモーダルデータを用いた信頼性学習のためのTAHCD(Test-time Adaptive Hierarchical Co-enhanced Denoising Network)を提案する。
提案手法は,最先端の信頼性の高いマルチモーダル学習手法と比較して,優れた分類性能,堅牢性,一般化を実現する。
論文 参考訳(メタデータ) (2026-01-12T03:14:12Z) - BLADE: A Behavior-Level Data Augmentation Framework with Dual Fusion Modeling for Multi-Behavior Sequential Recommendation [15.457239237638985]
BLADEは、データの分散を緩和しながらマルチ振る舞いモデリングを強化するフレームワークである。
入力レベルと中間レベルの両方で動作情報を組み込んだデュアルアイテム・ビヘイビア融合アーキテクチャを提案する。
3つの行動レベルのデータ拡張手法は、コアアイテムシーケンスではなく、振舞いシーケンスを直接操作する。
論文 参考訳(メタデータ) (2025-12-15T04:02:53Z) - Empowering Denoising Sequential Recommendation with Large Language Model Embeddings [18.84444501128626]
シーケンシャルレコメンデーションは、ユーザとイテムのインタラクションにおけるシーケンシャルパターンをモデル化することで、ユーザの好みを捉えることを目的としている。
ノイズの影響を低減するために,ノイズのある項目を明示的に識別・除去することを提案する研究もある。
協調情報と意味情報を統合したIADSR(Interest Alignment for Denoising Sequential Recommendation)を提案する。
論文 参考訳(メタデータ) (2025-10-05T15:10:51Z) - HiFIRec: Towards High-Frequency yet Low-Intention Behaviors for Multi-Behavior Recommendation [10.558247582357783]
HiFIRecは、新しいマルチ行動レコメンデーション手法である。
差動挙動モデリングにより,高周波かつ低意図動作の効果を補正する。
2つのベンチマークの実験では、HiFIRecはいくつかの最先端手法に比べてHR@10を4.21%-6.81%改善している。
論文 参考訳(メタデータ) (2025-09-30T04:20:45Z) - I$^3$-MRec: Invariant Learning with Information Bottleneck for Incomplete Modality Recommendation [56.55935146424585]
textbfIncomplete textbfModality textbfRecommendation の textbfInformation ボトルネック原理を用いて学習する textbfI$3$-MRec を紹介する。
それぞれのモダリティを異なる意味環境として扱うことで、I$3$-MRecは、優先指向の表現を学習するために不変リスク最小化(IRM)を採用する。
I$3$-MRecは、様々なモダリティ欠落シナリオにおいて、既存の最先端MSSメソッドを一貫して上回る
論文 参考訳(メタデータ) (2025-08-06T09:29:50Z) - Multimodal Difference Learning for Sequential Recommendation [5.243083216855681]
ユーザの関心とアイテムの関係は、さまざまなモダリティによって異なる、と我々は主張する。
本稿では,MDSRec のシークエンシャルレコメンデーションのための新しいマルチモーダルラーニングフレームワークを提案する。
5つの実世界のデータセットの結果は、最先端のベースラインよりもMDSRecの方が優れていることを示している。
論文 参考訳(メタデータ) (2024-12-11T05:08:19Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Behavior-Contextualized Item Preference Modeling for Multi-Behavior Recommendation [30.715182718492244]
本稿では,マルチビヘイビア・レコメンデーションのためのビヘイビア・コンテクスチュアライズド・アイテム・プライオリティ・モデリング(BCIPM)を提案する。
提案する行動文脈化項目選好ネットワークは,それぞれの行動の中でユーザの特定の項目選好を識別し,学習する。
その後、最終勧告の目的行動に関連する嗜好のみを考慮し、補助行動からノイズを著しく低減する。
論文 参考訳(メタデータ) (2024-04-28T12:46:36Z) - TruthSR: Trustworthy Sequential Recommender Systems via User-generated Multimodal Content [21.90660366765994]
ノイズの多いユーザ生成マルチモーダルコンテンツによる信頼性の高いシーケンシャルレコメンデーション手法を提案する。
具体的には、ノイズ干渉を軽減するために、ユーザ生成したマルチモーダルコンテンツの一貫性と相補性を捉える。
さらに,主観的ユーザ視点と客観的項目視点を統合した信頼性の高い意思決定機構を設計する。
論文 参考訳(メタデータ) (2024-04-26T08:23:36Z) - LD4MRec: Simplifying and Powering Diffusion Model for Multimedia Recommendation [6.914898966090197]
マルチメディアレコメンデーションのための光拡散モデル(LD4MRec)を提案する。
LD4MRecはフォワードフリー推論戦略を採用しており、観測されたノイズの振る舞いから直接将来の振る舞いを予測する。
3つの実世界のデータセットで実施された実験は、LD4MRecの有効性を示した。
論文 参考訳(メタデータ) (2023-09-27T02:12:41Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Diffusion Recommender Model [85.9640416600725]
そこで我々は,DiffRecと呼ばれる新しい拡散レコメンダモデルを提案し,その生成過程を認知的に学習する。
ユーザインタラクションにおけるパーソナライズされた情報を維持するため、DiffRecは追加のノイズを低減し、画像合成のような純粋なノイズに対するユーザのインタラクションを損なうことを避ける。
論文 参考訳(メタデータ) (2023-04-11T04:31:00Z) - Diffusion Action Segmentation [63.061058214427085]
本稿では,このような反復的洗練の本質的な精神を共用した拡散モデルによる新しい枠組みを提案する。
このフレームワークでは、入力された映像の特徴を条件としてランダムノイズから行動予測を反復的に生成する。
論文 参考訳(メタデータ) (2023-03-31T10:53:24Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z) - Sequential Recommendation with Self-Attentive Multi-Adversarial Network [101.25533520688654]
逐次レコメンデーションにおける文脈情報の影響を明示的にモデル化するためのMFGAN(Multi-Factor Generative Adversarial Network)を提案する。
当社のフレームワークは,複数種類の因子情報を組み込むことが柔軟であり,各因子が推奨決定にどのように貢献するかを時間とともに追跡することができる。
論文 参考訳(メタデータ) (2020-05-21T12:28:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。