論文の概要: LLMDiRec: LLM-Enhanced Intent Diffusion for Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2601.03259v1
- Date: Mon, 20 Oct 2025 08:55:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.500113
- Title: LLMDiRec: LLM-Enhanced Intent Diffusion for Sequential Recommendation
- Title(参考訳): LLMDiRec : 逐次リコメンデーションのためのLLM拡張インテント拡散
- Authors: Bo-Chian Chen, Manel Slokom,
- Abstract要約: 既存のシーケンシャルなレコメンデーションモデル、あるいは高度な拡散ベースのアプローチでさえ、ユーザ行動の根底にあるリッチなセマンティックな意図を捉えるのに苦労することが多い。
LLMDiRecは,Large Language Models (LLM) を意図認識拡散モデルに統合した新しい手法である。
モデルネームは最先端のアルゴリズムよりも優れており、複雑なユーザ意図をキャプチャする上で特に強力な改善がなされていることを実証する。
- 参考スコア(独自算出の注目度): 0.47745223151611654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing sequential recommendation models, even advanced diffusion-based approaches, often struggle to capture the rich semantic intent underlying user behavior, especially for new users or long-tail items. This limitation stems from their reliance on ID-based embeddings, which lack semantic grounding. We introduce LLMDiRec, a new approach that addresses this gap by integrating Large Language Models (LLMs) into an intent-aware diffusion model. Our approach combines collaborative signals from ID embeddings with rich semantic representations from LLMs, using a dynamic fusion mechanism and a multi-task objective to align both views. We run extensive experiments on five public datasets. We run extensive experiments on five public datasets. We demonstrate that \modelname outperforms state-of-the-art algorithms, with particularly strong improvements in capturing complex user intents and enhancing recommendation performance for long-tail items.
- Abstract(参考訳): 既存のシーケンシャルなレコメンデーションモデル、あるいは高度な拡散ベースのアプローチは、ユーザー行動、特に新規ユーザーやロングテールアイテムの根底にあるリッチなセマンティックな意図を捉えるのに苦労することが多い。
この制限は、セマンティックグラウンドがないIDベースの埋め込みに依存していることに由来する。
LLMDiRecは,Large Language Models(LLM)を意図認識拡散モデルに統合することで,このギャップに対処する新しいアプローチである。
提案手法は, 動的融合機構とマルチタスク目標を用いて, 双方のビューの整合を図りながら, ID 埋め込みからの協調信号と LLM からのリッチな意味表現を結合する。
5つの公開データセットで広範な実験を行います。
5つの公開データセットで広範な実験を行います。
特に,複雑なユーザの意図を捉え,ロングテールアイテムのレコメンデーション性能を向上させることで,最先端のアルゴリズムよりも優れていることを示す。
関連論文リスト
- Language Models as Semantic Augmenters for Sequential Recommenders [20.934150208996048]
大規模言語モデル(LLM)は、様々なモダリティをまたいだ潜在意味論と文脈的関係を捉えるのに優れています。
このようなシーケンスを自動的に強化するフレームワークであるLaMARを紹介する。
LaMARは、ユーザの意図とメタデータからの項目関係の潜在意味的側面を推測することにより、補助的なコンテキスト信号を生成する。
論文 参考訳(メタデータ) (2025-10-20T19:36:38Z) - HyMiRec: A Hybrid Multi-interest Learning Framework for LLM-based Sequential Recommendation [24.720767926024433]
HyMiRecは、大規模言語モデルのためのハイブリッドシーケンシャルレコメンデーションフレームワークである。
長いユーザシーケンスから粗い関心埋め込みを抽出し、洗練された関心埋め込みをキャプチャするためのLLMベースのレコメンデータを抽出する。
ユーザの多様な嗜好をモデル化するために,不整合型多目的学習モジュールを設計する。
論文 参考訳(メタデータ) (2025-10-15T16:45:59Z) - AgentDR Dynamic Recommendation with Implicit Item-Item Relations via LLM-based Agents [42.177723613925146]
本稿では,LLM推論をスケーラブルなレコメンデーションツールでブリッジする新しいLLMエージェントフレームワークであるAgenDRを提案する。
提案手法は,複数のレコメンデーション出力を統合するためにLLMを活用しながら,従来のモデルに上位タスクを委譲する。
我々のフレームワークは、その基盤となるツールよりも平均して2倍改善され、優れたフルレベルのパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2025-10-07T05:48:05Z) - LLM2Rec: Large Language Models Are Powerful Embedding Models for Sequential Recommendation [49.78419076215196]
シーケンスレコメンデーションは、類似したユーザやアイテムの履歴行動から協調フィルタリング(CF)信号をモデル化することで、ユーザの将来のインタラクションを予測することを目的としている。
従来のシーケンシャルなレコメンダは、高次の共起パターンを通じてCF信号をキャプチャするIDベースの埋め込みに依存している。
大規模言語モデル(LLM)の最近の進歩は、テキスト記述からアイテム表現を導出するテキストベースのレコメンデーションアプローチを動機付けている。
理想的な埋め込みモデルは、ドメイン内およびドメイン外のレコメンデーションパフォーマンスを改善するために、CF信号とリッチなセマンティック表現をシームレスに統合すべきである、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-16T13:27:06Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - Full-Stack Optimized Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [44.685176786857284]
データ、プロンプト、パラメータレベルの最適化を提供するフレームワークであるReLLaX(Retrieval-enhanced Large Language Model Plus)を提案する。
データレベルではSemantic User Behavior Retrieval (SUBR)を導入し、シーケンスの不均一性を低減し、LLMがキー情報を抽出しやすくする。
素早いレベル向上のために、我々はSPA(Soft Prompt Augmentation)を用いて協調的な知識を注入し、項目表現をレコメンデーションタスクと整合させる。
パラメータレベルでは、コンポーネント間の相互作用を有効にすることで、LoRAの表現性を向上するComponent Fully-Interactive LoRA(CFLoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-23T03:05:13Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Large Language Models Can Self-Improve in Long-context Reasoning [100.52886241070907]
大規模言語モデル(LLM)は、長いコンテキストの処理においてかなりの進歩を遂げているが、それでも長いコンテキストの推論に苦慮している。
我々はこの目的のために特別に設計されたアプローチである我々の提案する。
人類の専門家や 先進的なモデルによるデータに依存する 従来のアプローチと比べて 優れたパフォーマンスを達成しています
論文 参考訳(メタデータ) (2024-11-12T19:53:00Z) - Towards Scalable Semantic Representation for Recommendation [65.06144407288127]
大規模言語モデル(LLM)に基づく意味的IDを構築するために、Mixture-of-Codesを提案する。
提案手法は,識別性と寸法の堅牢性に優れたスケーラビリティを実現し,提案手法で最高のスケールアップ性能を実現する。
論文 参考訳(メタデータ) (2024-10-12T15:10:56Z) - Beyond Inter-Item Relations: Dynamic Adaption for Enhancing LLM-Based Sequential Recommendation [83.87767101732351]
逐次リコメンデータシステム(SRS)は,ユーザの過去のインタラクションシーケンスに基づいて,ユーザが好む次の項目を予測する。
様々なAIアプリケーションにおける大規模言語モデル(LLM)の台頭に触発されて、LLMベースのSRSの研究が急増している。
我々は,大きめの粒度適応の上に構築された逐次レコメンデーションモデルであるDARecを提案する。
論文 参考訳(メタデータ) (2024-08-14T10:03:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。