論文の概要: FLARE: Fusing Language Models and Collaborative Architectures for Recommender Enhancement
- arxiv url: http://arxiv.org/abs/2409.11699v1
- Date: Wed, 18 Sep 2024 04:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:10:09.476476
- Title: FLARE: Fusing Language Models and Collaborative Architectures for Recommender Enhancement
- Title(参考訳): FLARE:リコメンダ強化のための言語モデルと協調アーキテクチャ
- Authors: Liam Hebert, Marialena Kyriakidi, Hubert Pham, Krishna Sayana, James Pine, Sukhdeep Sodhi, Ambarish Jash,
- Abstract要約: Flareは、Perceiverネットワークを使用して、言語モデル(mT5)と協調フィルタリングモデル(Bert4Rec)を統合する、新しいハイブリッドレコメンデータである。
2段階評価を行い、まず、より小さなデータセット上で確立されたベースラインに対してFreのパフォーマンスを評価する。
次に、より大きく、よりリアルなデータセット上で、より大きなアイテム語彙でFreを評価する。
- 参考スコア(独自算出の注目度): 0.7372033475418547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hybrid recommender systems, combining item IDs and textual descriptions, offer potential for improved accuracy. However, previous work has largely focused on smaller datasets and model architectures. This paper introduces Flare (Fusing Language models and collaborative Architectures for Recommender Enhancement), a novel hybrid recommender that integrates a language model (mT5) with a collaborative filtering model (Bert4Rec) using a Perceiver network. This architecture allows Flare to effectively combine collaborative and content information for enhanced recommendations. We conduct a two-stage evaluation, first assessing Flare's performance against established baselines on smaller datasets, where it demonstrates competitive accuracy. Subsequently, we evaluate Flare on a larger, more realistic dataset with a significantly larger item vocabulary, introducing new baselines for this setting. Finally, we showcase Flare's inherent ability to support critiquing, enabling users to provide feedback and refine recommendations. We further leverage critiquing as an evaluation method to assess the model's language understanding and its transferability to the recommendation task.
- Abstract(参考訳): アイテムIDとテキスト記述を組み合わせたハイブリッドレコメンデータシステムは、精度を向上させる可能性を秘めている。
しかし、以前の研究は、より小さなデータセットとモデルアーキテクチャに重点を置いてきた。
本稿では,言語モデル (mT5) と協調フィルタリングモデル (Bert4Rec) をPerceiver ネットワークを用いて統合した新しいハイブリッドレコメンデータである Flare (Fusing Language model and collaborative Architectures for Recommender Enhancement) を紹介する。
このアーキテクチャにより、Frareは協力的な情報とコンテンツ情報を効果的に組み合わせて、レコメンデーションを強化できる。
2段階の評価を行い、まずFrareのパフォーマンスを、より小さなデータセット上で確立されたベースラインに対して評価し、競争精度を示す。
その後、より大きく、より現実的なデータセット上で、より大きな項目語彙でFrareを評価し、この設定に新たなベースラインを導入する。
最後に、ユーザがフィードバックを提供し、リコメンデーションを洗練できるように、フレアの固有の能力を紹介します。
さらに,モデルの言語理解とレコメンデーションタスクへの伝達性を評価するための評価手法として,クオリティクリングを活用している。
関連論文リスト
- Collaborative Retrieval for Large Language Model-based Conversational Recommender Systems [65.75265303064654]
対話レコメンデーションシステム(CRS)は、ユーザとの対話を通じてパーソナライズされたレコメンデーションを提供することを目的としている。
大規模言語モデル(LLM)は、コンテキスト対応のユーザの好みに対する理解が優れているため、CRSを強化する。
CRAG(Collaborative Retrieval Augmented Generation for LLM-based CRS)を提案する。
論文 参考訳(メタデータ) (2025-02-19T22:47:40Z) - Enhancing Recommendation Explanations through User-Centric Refinement [7.640281193938638]
本稿では、既存の説明可能なレコメンデータモデルによって生成された最初の説明を洗練する新しいパラダイムを提案する。
具体的には,大規模言語モデルに基づくマルチエージェント協調改良フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T12:08:18Z) - RecLM: Recommendation Instruction Tuning [17.780484832381994]
本稿では,大規模言語モデルと協調フィルタリングをシームレスに統合するモデル非依存の指導訓練パラダイムを提案する。
提案した$underlineRec$ommendationは、慎重に設計された強化学習報酬関数により、ユーザの好みの多様性を捕捉する。
論文 参考訳(メタデータ) (2024-12-26T17:51:54Z) - Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.73461454584274]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - EasyRec: Simple yet Effective Language Models for Recommendation [6.311058599430178]
EasyRecは、テキストベースの意味理解を協調的な信号とシームレスに統合する、効果的で使いやすいアプローチである。
EasyRecでは、コントラスト学習と協調的な言語モデルチューニングを組み合わせた、テキストビヘイビアアライメントフレームワークを採用している。
この研究は、プラグイン・アンド・プレイコンポーネントとしてEasyRecをテキスト強化協調フィルタリングフレームワークにシームレスに統合する可能性を強調している。
論文 参考訳(メタデータ) (2024-08-16T16:09:59Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - Tracing Origins: Coref-aware Machine Reading Comprehension [43.352833140317486]
そこで,本研究では,アナフォリック表現を接続する際の人間の読影過程を模倣し,コア参照情報を活用し,事前学習モデルから単語の埋め込みを強化する。
学習段階におけるコア参照情報の明示的な組み込みは,事前学習言語モデルの訓練において,コア参照情報の組み込みよりも優れていたことを実証した。
論文 参考訳(メタデータ) (2021-10-15T09:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。