論文の概要: Collaborative Knowledge Fusion: A Novel Approach for Multi-task Recommender Systems via LLMs
- arxiv url: http://arxiv.org/abs/2410.20642v1
- Date: Mon, 28 Oct 2024 00:38:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-10 11:30:26.595400
- Title: Collaborative Knowledge Fusion: A Novel Approach for Multi-task Recommender Systems via LLMs
- Title(参考訳): 協調的知識融合: LLMによるマルチタスクレコメンダシステムのための新しいアプローチ
- Authors: Chuang Zhao, Xing Su, Ming He, Hongke Zhao, Jianping Fan, Xiaomeng Li,
- Abstract要約: 我々は、パーソナライズされた協調的知識融合を通じてマルチタスクレコメンデーションを促進する、CKFと呼ばれる新しいフレームワークを導入する。
多様なレコメンデーションタスクの内在的関係を明らかにするために,マルチタスク最適化のためのパラメータ効率の高い新しいアプローチであるMulti-Loraを開発した。
- 参考スコア(独自算出の注目度): 18.064625844702206
- License:
- Abstract: Owing to the impressive general intelligence of large language models (LLMs), there has been a growing trend to integrate them into recommender systems to gain a more profound insight into human interests and intentions. Existing LLMs-based recommender systems primarily leverage item attributes and user interaction histories in textual format, improving the single task like rating prediction or explainable recommendation. Nevertheless, these approaches overlook the crucial contribution of traditional collaborative signals in discerning users' profound intentions and disregard the interrelatedness among tasks. To address these limitations, we introduce a novel framework known as CKF, specifically developed to boost multi-task recommendations via personalized collaborative knowledge fusion into LLMs. Specifically, our method synergizes traditional collaborative filtering models to produce collaborative embeddings, subsequently employing the meta-network to construct personalized mapping bridges tailored for each user. Upon mapped, the embeddings are incorporated into meticulously designed prompt templates and then fed into an advanced LLM to represent user interests. To investigate the intrinsic relationship among diverse recommendation tasks, we develop Multi-Lora, a new parameter-efficient approach for multi-task optimization, adept at distinctly segregating task-shared and task-specific information. This method forges a connection between LLMs and recommendation scenarios, while simultaneously enriching the supervisory signal through mutual knowledge transfer among various tasks. Extensive experiments and in-depth robustness analyses across four common recommendation tasks on four large public data sets substantiate the effectiveness and superiority of our framework.
- Abstract(参考訳): 大きな言語モデル(LLM)の印象的な一般知性のため、人間の関心や意図についてより深い洞察を得るために、それらをレコメンデーションシステムに統合する傾向が強まっている。
既存のLLMベースのレコメンデータシステムは、主にテキスト形式でアイテム属性とユーザインタラクション履歴を利用し、評価予測や説明可能なレコメンデーションのような単一タスクを改善する。
それでもこれらのアプローチは、ユーザの深い意図を識別し、タスク間の相互関係を無視する上で、従来の協調的なシグナルの重要な貢献を見落としている。
これらの制約に対処するため、CKFと呼ばれる新しいフレームワークを導入し、LLMにパーソナライズされた協調知識を融合させることにより、マルチタスクレコメンデーションを強化するために特別に開発された。
具体的には,従来の協調フィルタリングモデルを相乗化して協調埋め込みを生成し,その後,メタネットワークを用いて各ユーザに適したパーソナライズされたマッピングブリッジを構築する。
マッピングされると、埋め込みは慎重に設計されたプロンプトテンプレートに組み込まれ、ユーザ関心を表すために高度なLCMに入力される。
マルチタスク最適化のためのパラメータ効率の高い新しい手法であるMulti-Loraを開発し,タスク共有情報とタスク固有情報を明確に分離する手法を提案する。
本手法は,LLMとレコメンデーションシナリオの関連性を実証すると同時に,各タスク間の相互知識伝達による監視信号の強化を行う。
4つの大きな公開データセット上での4つの一般的な推奨課題に対する大規模な実験と詳細なロバストネス解析は、我々のフレームワークの有効性と優位性を裏付けるものである。
関連論文リスト
- Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - Harnessing Multimodal Large Language Models for Multimodal Sequential Recommendation [21.281471662696372]
本稿では,MLLM-MSRモデルを提案する。
動的ユーザの嗜好を捉えるために,2段階のユーザ選好要約法を設計する。
次に、ユーザ嗜好の動的変化を捉えるために、繰り返しユーザー嗜好要約生成パラダイムを用いる。
論文 参考訳(メタデータ) (2024-08-19T04:44:32Z) - POEM: Interactive Prompt Optimization for Enhancing Multimodal Reasoning of Large Language Models [28.072184039405784]
大規模言語モデル(LLM)の効率的なプロンプトエンジニアリングを容易にするビジュアル分析システムであるPOEMを提案する。
本システムは,様々なプロンプトによって引き起こされるマルチモーダル知識を包括的に理解するために,モジュール間の相互作用パターンを様々な詳細レベルで探索することを可能にする。
論文 参考訳(メタデータ) (2024-06-06T08:21:30Z) - Multiple Heads are Better than One: Mixture of Modality Knowledge Experts for Entity Representation Learning [51.80447197290866]
高品質なマルチモーダル実体表現を学習することは、マルチモーダル知識グラフ(MMKG)表現学習の重要な目標である。
既存の手法は、エレガントなエンティティワイドマルチモーダル融合戦略の構築に重点を置いている。
適応型マルチモーダルな実体表現を学習するために,Mixture of Modality Knowledge Expert (MoMoK) を用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-27T06:36:17Z) - Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
大規模テキストコーパスで事前訓練されたLarge Language Models (LLMs) は、推奨システムを強化するための有望な道を示す。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - CoRAL: Collaborative Retrieval-Augmented Large Language Models Improve
Long-tail Recommendation [34.29410946387975]
我々は,協調的な証拠を直接プロンプトに組み込む共同検索強化型LLM,CoRALを紹介した。
LLMは、ユーザ間の共有や個別の好みを分析し、特定のアイテムにどのタイプのユーザが惹かれるかを示すパターンを要約することができる。
実験の結果,コラルは特定のレコメンデーションタスクにおけるLLMの推論能力を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2024-03-11T05:49:34Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。