論文の概要: Collaborative Cross-modal Fusion with Large Language Model for Recommendation
- arxiv url: http://arxiv.org/abs/2408.08564v1
- Date: Fri, 16 Aug 2024 06:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:28:41.209562
- Title: Collaborative Cross-modal Fusion with Large Language Model for Recommendation
- Title(参考訳): 勧告のための大規模言語モデルを用いた協調的クロスモーダルフュージョン
- Authors: Zhongzhou Liu, Hao Zhang, Kuicai Dong, Yuan Fang,
- Abstract要約: 本稿では,CCF-LLMと呼ばれる大規模言語モデルを用いた協調的クロスモーダルフュージョンの枠組みを提案する。
本フレームワークでは,ユーザとイテムのインタラクションをハイブリッドなプロンプトに変換し,セマンティックな知識と協調的なシグナルの両方を符号化する。
CCF-LLMは、意味的および協調的な信号を効果的に活用することにより、既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 11.954983381829098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the success of conventional collaborative filtering (CF) approaches for recommendation systems, they exhibit limitations in leveraging semantic knowledge within the textual attributes of users and items. Recent focus on the application of large language models for recommendation (LLM4Rec) has highlighted their capability for effective semantic knowledge capture. However, these methods often overlook the collaborative signals in user behaviors. Some simply instruct-tune a language model, while others directly inject the embeddings of a CF-based model, lacking a synergistic fusion of different modalities. To address these issues, we propose a framework of Collaborative Cross-modal Fusion with Large Language Models, termed CCF-LLM, for recommendation. In this framework, we translate the user-item interactions into a hybrid prompt to encode both semantic knowledge and collaborative signals, and then employ an attentive cross-modal fusion strategy to effectively fuse latent embeddings of both modalities. Extensive experiments demonstrate that CCF-LLM outperforms existing methods by effectively utilizing semantic and collaborative signals in the LLM4Rec context.
- Abstract(参考訳): 従来のコラボレーティブ・フィルタリング(CF)によるレコメンデーションシステムの成功にもかかわらず、ユーザやアイテムのテキスト属性内の意味的知識の活用には限界がある。
大規模言語モデルのレコメンデーションへの応用(LLM4Rec)に注目が集まっている。
しかし、これらの手法はユーザー行動の協調的な信号を見落としてしまうことが多い。
言語モデルを指示-チューニングするものもあるが、CFベースのモデルの埋め込みを直接注入するものもある。
これらの問題に対処するために,CCF-LLMと呼ばれる大規模言語モデルを用いた協調的クロスモーダル融合のフレームワークを提案する。
本フレームワークでは,ユーザとイテムのインタラクションをハイブリッドプロンプトに変換し,意味的知識と協調的なシグナルの両方を符号化し,注意深い相互融合戦略を用いて,両方のモダリティの潜伏埋め込みを効果的に融合する。
CCF-LLMはLLM4Recコンテキストにおける意味的および協調的なシグナルを効果的に利用することにより、既存の手法よりも優れていることを示す。
関連論文リスト
- Collaborative Knowledge Fusion: A Novel Approach for Multi-task Recommender Systems via LLMs [18.064625844702206]
我々は、パーソナライズされた協調的知識融合を通じてマルチタスクレコメンデーションを促進する、CKFと呼ばれる新しいフレームワークを導入する。
多様なレコメンデーションタスクの内在的関係を明らかにするために,マルチタスク最適化のためのパラメータ効率の高い新しいアプローチであるMulti-Loraを開発した。
論文 参考訳(メタデータ) (2024-10-28T00:38:06Z) - Enhancing Code-Switching Speech Recognition with LID-Based Collaborative Mixture of Experts Model [12.030995417911296]
本研究では,専門家グループ間の協調的なメカニズムを活用するMixture of Experts(MoE)モデルであるCollaborative-MoEを提案する。
各言語専門家グループ内では、ゲーティングネットワークは、言語以外の属性に関するコラボレーションを促進するために教師なしの運営を行っている。
提案手法は,MoEモデルの特徴となる効率的な推論能力を,追加の事前学習を必要とせずに保持する。
論文 参考訳(メタデータ) (2024-09-03T16:53:38Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [71.85120354973073]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System [19.8986219047121]
協調フィルタリング推薦システム (CF-RecSys) は, ソーシャルメディアやeコマースプラットフォーム上でのユーザエクスペリエンス向上に成功している。
近年の戦略は、事前訓練されたモダリティエンコーダと大規模言語モデルに基づくユーザ/イテムのモダリティ情報の活用に重点を置いている。
コールドシナリオだけでなく、ウォームシナリオにおいても優れたA-LLMRecと呼ばれる全周LCMベースのレコメンダシステムを提案する。
論文 参考訳(メタデータ) (2024-04-17T13:03:07Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - CMF: Cascaded Multi-model Fusion for Referring Image Segmentation [24.942658173937563]
本稿では,自然言語表現によって記述された対象に対するセグメンテーションマスクの予測を目的とした画像セグメンテーション(RIS)の課題に対処する。
本稿では,マルチモーダル・フュージョン (CMF) モジュールを提案する。
4つのベンチマークデータセットによる実験結果から,本手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-16T08:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。