論文の概要: LLM-Driven Dual-Level Multi-Interest Modeling for Recommendation
- arxiv url: http://arxiv.org/abs/2507.10917v2
- Date: Thu, 17 Jul 2025 15:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 13:45:37.444361
- Title: LLM-Driven Dual-Level Multi-Interest Modeling for Recommendation
- Title(参考訳): LLM-Driven Dual-Level Multi-Interest Modeling for Recommendation
- Authors: Ziyan Wang, Yingpeng Du, Zhu Sun, Jieyi Bi, Haoyan Chua, Tianjun Wei, Jie Zhang,
- Abstract要約: 大規模言語モデル (LLM) は、その豊富な知識と強力な推論能力により、多言語分析において大きな可能性を示す。
より効果的なレコメンデーションのためのLLM駆動型デュアルレベル多目的モデリングフレームワークを提案する。
実世界のデータセットの実験は、最先端の手法に対する我々のアプローチの優位性を示している。
- 参考スコア(独自算出の注目度): 12.89199121698673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, much effort has been devoted to modeling users' multi-interests based on their behaviors or auxiliary signals. However, existing methods often rely on heuristic assumptions, e.g., co-occurring items indicate the same interest of users, failing to capture user multi-interests aligning with real-world scenarios. While large language models (LLMs) show significant potential for multi-interest analysis due to their extensive knowledge and powerful reasoning capabilities, two key challenges remain. First, the granularity of LLM-driven multi-interests is agnostic, possibly leading to overly fine or coarse interest grouping. Second, individual user analysis provides limited insights due to the data sparsity issue. In this paper, we propose an LLM-driven dual-level multi-interest modeling framework for more effective recommendation. At the user-individual level, we exploit LLMs to flexibly allocate items engaged by users into different semantic clusters, indicating their diverse and distinct interests. To alleviate the agnostic generation of LLMs, we adaptively assign these semantic clusters to users' collaborative multi-interests learned from global user-item interactions, allowing the granularity to be automatically adjusted according to the user's behaviors using an alignment module. To alleviate the limited insights derived from individual users' behaviors, at the user-crowd level, we propose aggregating user cliques into synthesized users with rich behaviors for more comprehensive LLM-driven multi-interest analysis. We formulate a max covering problem to ensure the compactness and representativeness of synthesized users' behaviors, and then conduct contrastive learning based on their LLM-driven multi-interests to disentangle item representations among different interests. Experiments on real-world datasets show the superiority of our approach against state-of-the-art methods.
- Abstract(参考訳): 近年,ユーザの行動や補助信号に基づく多目的のモデリングに多くの努力が注がれている。
しかし、既存の手法ではしばしばヒューリスティックな仮定に頼り、例えば、同じアイテムがユーザーの興味を示す。
大規模言語モデル (LLM) は、その豊富な知識と強力な推論能力により、多言語分析において大きな可能性を秘めているが、2つの重要な課題が残っている。
第一に、LLM駆動の多目的の粒度は非依存であり、過度に細かな、あるいは粗い利害グループ化につながる可能性がある。
第2に、個々のユーザ分析は、データの分散性の問題により、限られた洞察を提供する。
本稿では,LLM駆動型デュアルレベル多目的モデリングフレームワークを提案する。
ユーザ・個人レベルでは、LSMを利用して、ユーザが関与するアイテムを異なるセマンティッククラスタに柔軟に割り当てる。
LLMの非依存的生成を緩和するため,これらのセマンティッククラスタをグローバルなユーザ・イテムインタラクションから学習したユーザの協調的多目的に適応的に割り当て,アライメントモジュールを用いてユーザの行動に応じて粒度を自動的に調整する。
個人ユーザの行動から得られる限られた洞察を軽減するため、より包括的なLCM駆動多目的分析のためのリッチな振る舞いを持つ合成ユーザに対して、ユーザ傾斜を集約する手法を提案する。
合成されたユーザの行動のコンパクトさと代表性を確保するために最大被覆問題を定式化し、LLM駆動の多目的に基づいてコントラスト学習を行い、異なる関心事間でアイテム表現を歪ませる。
実世界のデータセットの実験は、最先端の手法に対する我々のアプローチの優位性を示している。
関連論文リスト
- Hierarchical Tree Search-based User Lifelong Behavior Modeling on Large Language Model [20.79990807882704]
階層木探索に基づくユーザ寿命行動モデリングフレームワーク(HiT-LBM)を提案する。
HiT-LBMは、Chunked User Behavior extract (CUBE)とHierarchical Tree Search for Interest (HTS)を統合して、ユーザの多様な関心と関心の進化を捉える。
我々はまた、複数の行動チャンクから利益を統合するために、時間-水間関心融合(TIF)を設計し、ユーザー生涯の関心の包括的表現を構築した。
論文 参考訳(メタデータ) (2025-05-26T04:32:57Z) - Multi-agents based User Values Mining for Recommendation [52.26100802380767]
効率的なユーザ値抽出のためのゼロショットマルチLLM協調フレームワークを提案する。
本研究は,本質的な意味を保ちながら,項目内容のコンデンスにテキスト要約手法を適用した。
幻覚を緩和するために,評価役と監督役の2つの特殊エージェントの役割を導入する。
論文 参考訳(メタデータ) (2025-05-02T04:01:31Z) - Agent-Centric Personalized Multiple Clustering with Multi-Modal LLMs [40.38930402847949]
エージェント中心のパーソナライズされたクラスタリングフレームワークを提案する。
エージェントはリレーショナルグラフを横断して、ユーザの関心事に基づいてクラスタを検索する。
その結果,提案手法はカードオーダーとカードサイツのベンチマークで0.9667と0.9481のNMIスコアを得ることができた。
論文 参考訳(メタデータ) (2025-03-28T08:45:15Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - LIBER: Lifelong User Behavior Modeling Based on Large Language Models [42.045535303737694]
大規模言語モデルに基づく生涯ユーザ行動モデリング(LIBER)を提案する。
LIBERはHuaweiの音楽レコメンデーションサービスにデプロイされ、ユーザーの再生回数と再生時間の3.01%と7.69%を大幅に改善した。
論文 参考訳(メタデータ) (2024-11-22T03:43:41Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - LLM-ESR: Large Language Models Enhancement for Long-tailed Sequential Recommendation [58.04939553630209]
現実世界のシステムでは、ほとんどのユーザーはほんの一握りのアイテムしか扱わないが、ほとんどのアイテムは滅多に消費されない。
これら2つの課題は、ロングテールユーザーとロングテールアイテムの課題として知られ、しばしば既存のシークエンシャルレコメンデーションシステムに困難をもたらす。
本稿では,これらの課題に対処するため,Large Language Models Enhancement framework for Sequential Recommendation (LLM-ESR)を提案する。
論文 参考訳(メタデータ) (2024-05-31T07:24:42Z) - Multi-Modal Proxy Learning Towards Personalized Visual Multiple Clustering [8.447067012487866]
マルチMaPは,マルチモーダルなプロキシ学習プロセスを用いた新しい手法である。
キーワードを通じてユーザの関心をキャプチャすると同時に、関連するクラスタリングの特定を容易にする。
実験の結果,Multi-MaPは全ベンチマークのマルチクラスタ・ビジョンタスクにおいて常に最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-24T05:20:42Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Coarse-to-Fine Knowledge-Enhanced Multi-Interest Learning Framework for
Multi-Behavior Recommendation [52.89816309759537]
マルチタイプの行動(例えば、クリック、カートの追加、購入など)は、ほとんどの現実世界のレコメンデーションシナリオに広く存在する。
最先端のマルチ振る舞いモデルは、すべての歴史的相互作用を入力として区別しない振る舞い依存を学習する。
本稿では,多様な行動に対する共有的・行動特異的な関心を学習するための,多目的学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:28:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。