論文の概要: Collaborative Cross-modal Fusion with Large Language Model for Recommendation
- arxiv url: http://arxiv.org/abs/2408.08564v1
- Date: Fri, 16 Aug 2024 06:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:28:41.209562
- Title: Collaborative Cross-modal Fusion with Large Language Model for Recommendation
- Title(参考訳): 勧告のための大規模言語モデルを用いた協調的クロスモーダルフュージョン
- Authors: Zhongzhou Liu, Hao Zhang, Kuicai Dong, Yuan Fang,
- Abstract要約: 本稿では,CCF-LLMと呼ばれる大規模言語モデルを用いた協調的クロスモーダルフュージョンの枠組みを提案する。
本フレームワークでは,ユーザとイテムのインタラクションをハイブリッドなプロンプトに変換し,セマンティックな知識と協調的なシグナルの両方を符号化する。
CCF-LLMは、意味的および協調的な信号を効果的に活用することにより、既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 11.954983381829098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the success of conventional collaborative filtering (CF) approaches for recommendation systems, they exhibit limitations in leveraging semantic knowledge within the textual attributes of users and items. Recent focus on the application of large language models for recommendation (LLM4Rec) has highlighted their capability for effective semantic knowledge capture. However, these methods often overlook the collaborative signals in user behaviors. Some simply instruct-tune a language model, while others directly inject the embeddings of a CF-based model, lacking a synergistic fusion of different modalities. To address these issues, we propose a framework of Collaborative Cross-modal Fusion with Large Language Models, termed CCF-LLM, for recommendation. In this framework, we translate the user-item interactions into a hybrid prompt to encode both semantic knowledge and collaborative signals, and then employ an attentive cross-modal fusion strategy to effectively fuse latent embeddings of both modalities. Extensive experiments demonstrate that CCF-LLM outperforms existing methods by effectively utilizing semantic and collaborative signals in the LLM4Rec context.
- Abstract(参考訳): 従来のコラボレーティブ・フィルタリング(CF)によるレコメンデーションシステムの成功にもかかわらず、ユーザやアイテムのテキスト属性内の意味的知識の活用には限界がある。
大規模言語モデルのレコメンデーションへの応用(LLM4Rec)に注目が集まっている。
しかし、これらの手法はユーザー行動の協調的な信号を見落としてしまうことが多い。
言語モデルを指示-チューニングするものもあるが、CFベースのモデルの埋め込みを直接注入するものもある。
これらの問題に対処するために,CCF-LLMと呼ばれる大規模言語モデルを用いた協調的クロスモーダル融合のフレームワークを提案する。
本フレームワークでは,ユーザとイテムのインタラクションをハイブリッドプロンプトに変換し,意味的知識と協調的なシグナルの両方を符号化し,注意深い相互融合戦略を用いて,両方のモダリティの潜伏埋め込みを効果的に融合する。
CCF-LLMはLLM4Recコンテキストにおける意味的および協調的なシグナルを効果的に利用することにより、既存の手法よりも優れていることを示す。
関連論文リスト
- EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Molar: Multimodal LLMs with Collaborative Filtering Alignment for Enhanced Sequential Recommendation [4.518104756199573]
Molarは、複数のコンテンツモダリティとID情報を統合するシーケンシャルなレコメンデーションフレームワークで、協調的な信号を効果的にキャプチャする。
マルチモーダルコンテンツと協調フィルタリングの洞察をシームレスに組み合わせることで、Molarはユーザの関心事とコンテキスト意味論の両方をキャプチャし、より優れた推奨精度をもたらす。
論文 参考訳(メタデータ) (2024-12-24T05:23:13Z) - Collaborative Knowledge Fusion: A Novel Approach for Multi-task Recommender Systems via LLMs [18.064625844702206]
我々は、パーソナライズされた協調的知識融合を通じてマルチタスクレコメンデーションを促進する、CKFと呼ばれる新しいフレームワークを導入する。
多様なレコメンデーションタスクの内在的関係を明らかにするために,マルチタスク最適化のためのパラメータ効率の高い新しいアプローチであるMulti-Loraを開発した。
論文 参考訳(メタデータ) (2024-10-28T00:38:06Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - CMF: Cascaded Multi-model Fusion for Referring Image Segmentation [24.942658173937563]
本稿では,自然言語表現によって記述された対象に対するセグメンテーションマスクの予測を目的とした画像セグメンテーション(RIS)の課題に対処する。
本稿では,マルチモーダル・フュージョン (CMF) モジュールを提案する。
4つのベンチマークデータセットによる実験結果から,本手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-16T08:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。