論文の概要: FLARE: Fusing Language Models and Collaborative Architectures for Recommender Enhancement
- arxiv url: http://arxiv.org/abs/2409.11699v2
- Date: Wed, 05 Mar 2025 23:46:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 17:59:00.431954
- Title: FLARE: Fusing Language Models and Collaborative Architectures for Recommender Enhancement
- Title(参考訳): FLARE:リコメンダ強化のための言語モデルと協調アーキテクチャ
- Authors: Liam Hebert, Marialena Kyriakidi, Hubert Pham, Krishna Sayana, James Pine, Sukhdeep Sodhi, Ambarish Jash,
- Abstract要約: Flareは、Perceiverネットワークを使用した協調フィルタリングモデルと言語モデルを統合する、新しいハイブリッドシーケンスレコメンデータである。
我々はよく使われるBert4Recベースラインを再検討し、Bert4Recが以前報告された数値より大幅に上回っていることを示す。
本稿ではまた,Frareが特有なクオリティ作成を支援する能力を示し,ユーザがフィードバックを提供し,レコメンデーションを洗練できるようにする。
- 参考スコア(独自算出の注目度): 0.7372033475418547
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent proposals in recommender systems represent items with their textual description, using a large language model. They show better results on standard benchmarks compared to an item ID-only model, such as Bert4Rec. In this work, we revisit the often-used Bert4Rec baseline and show that with further tuning, Bert4Rec significantly outperforms previously reported numbers, and in some datasets, is competitive with state-of-the-art models. With revised baselines for item ID-only models, this paper also establishes new competitive results for architectures that combine IDs and textual descriptions. We demonstrate this with Flare (Fusing Language models and collaborative Architectures for Recommender Enhancement). Flare is a novel hybrid sequence recommender that integrates a language model with a collaborative filtering model using a Perceiver network. Prior studies focus evaluation on datasets with limited-corpus size, but many commercially-applicable recommender systems common on the web must handle larger corpora. We evaluate Flare on a more realistic dataset with a significantly larger item vocabulary, introducing new baselines for this setting. This paper also showcases Flare's inherent ability to support critiquing, enabling users to provide feedback and refine recommendations. We leverage critiquing as an evaluation method to assess the model's language understanding and its transferability to the recommendation task.
- Abstract(参考訳): 近年のレコメンデータシステムにおける提案は, 大規模言語モデルを用いて, 文章記述を伴う項目を表現している。
これらは、Bert4RecのようなアイテムIDのみのモデルと比較して、標準ベンチマークでより良い結果を示す。
本稿では、よく使われるBert4Recベースラインを再検討し、さらなるチューニングにより、Bert4Recが以前報告した数値よりも大幅に優れており、一部のデータセットでは最先端のモデルと競合していることを示す。
項目IDのみのモデルに対するベースラインの改訂により,IDとテキスト記述を組み合わせたアーキテクチャの新たな競争結果が確立される。
Flare(Fusing Language ModelとRecommender Enhancementのための協調アーキテクチャ)でこれを実証します。
Flareは、Perceiverネットワークを使用した協調フィルタリングモデルと言語モデルを統合する、新しいハイブリッドシーケンスレコメンデータである。
これまでの研究では、コーパスサイズが限られているデータセットに焦点が当てられていたが、Webに共通する多くの商用レコメンデータシステムは、より大きなコーパスを扱う必要がある。
より現実的なデータセット上でFrareを非常に大きな項目語彙で評価し、この設定に新たなベースラインを導入する。
本稿ではまた,Frareが特有なクオリティ作成を支援する能力を示し,ユーザがフィードバックを提供し,レコメンデーションを洗練できるようにする。
提案手法は,モデルの言語理解とレコメンデーションタスクへの伝達性を評価するための評価手法としてクオリティクリングを利用する。
関連論文リスト
- REGEN: A Dataset and Benchmarks with Natural Language Critiques and Narratives [4.558818396613368]
Amazon Product Reviewsデータセットを拡張して,2つの重要な自然言語機能を取り入れています。
ストーリーには、製品の支持、購入説明、ユーザの好みの要約が含まれる。
論文 参考訳(メタデータ) (2025-03-14T23:47:46Z) - Collaborative Retrieval for Large Language Model-based Conversational Recommender Systems [65.75265303064654]
対話レコメンデーションシステム(CRS)は、ユーザとの対話を通じてパーソナライズされたレコメンデーションを提供することを目的としている。
大規模言語モデル(LLM)は、コンテキスト対応のユーザの好みに対する理解が優れているため、CRSを強化する。
CRAG(Collaborative Retrieval Augmented Generation for LLM-based CRS)を提案する。
論文 参考訳(メタデータ) (2025-02-19T22:47:40Z) - Beyond Retrieval: Generating Narratives in Conversational Recommender Systems [4.912663905306209]
本稿では,会話レコメンデーションにおける自然言語生成タスクのための新しいデータセット(REGEN)を提案する。
我々は、よく知られた生成指標を用いてベンチマークを作成し、レーダLEMを用いて新しいデータセットの自動評価を行う。
そして、私たちの知る限りでは、レコメンデーター信号を理解し、リッチな物語を生成することにおけるLLMの能力を分析する最初の試みである。
論文 参考訳(メタデータ) (2024-10-22T07:53:41Z) - EasyRec: Simple yet Effective Language Models for Recommendation [6.311058599430178]
EasyRecは、テキストベースの意味理解を協調的な信号とシームレスに統合する、効果的で使いやすいアプローチである。
EasyRecでは、コントラスト学習と協調的な言語モデルチューニングを組み合わせた、テキストビヘイビアアライメントフレームワークを採用している。
この研究は、プラグイン・アンド・プレイコンポーネントとしてEasyRecをテキスト強化協調フィルタリングフレームワークにシームレスに統合する可能性を強調している。
論文 参考訳(メタデータ) (2024-08-16T16:09:59Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [71.85120354973073]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - RLVF: Learning from Verbal Feedback without Overgeneralization [94.19501420241188]
本稿では,このような過度な一般化を伴わずに,言語フィードバックを取り入れることの課題について検討する。
制約付き選好最適化(C3PO)を用いた新しい文脈的批評手法を開発した。
提案手法は,他の文脈に対する既存行動を維持しながら,関連するシナリオに対して効果的な言語フィードバックを適用する。
論文 参考訳(メタデータ) (2024-02-16T18:50:24Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [70.19437817951673]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
我々のアプローチは、テキスト・ツー・ビデオ生成のための700のプロンプトの多種多様な包括的リストを作成することである。
そこで我々は、視覚的品質、コンテンツ品質、動作品質、テキスト・ビデオアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - Reformulating Sequential Recommendation: Learning Dynamic User Interest with Content-enriched Language Modeling [18.297332953450514]
本稿では、事前学習した言語モデルの意味理解機能を活用してパーソナライズされたレコメンデーションを生成するLANCERを提案する。
我々のアプローチは、言語モデルとレコメンデーションシステムの間のギャップを埋め、より人間的なレコメンデーションを生み出します。
論文 参考訳(メタデータ) (2023-09-19T08:54:47Z) - Text Matching Improves Sequential Recommendation by Reducing Popularity
Biases [48.272381505993366]
TASTEは、アイテムの識別子と属性を使用して、アイテムとユーザとイテムのインタラクションを言語化する。
実験の結果,TASTEはシーケンシャルレコメンデーションデータセットにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-08-27T07:44:33Z) - Attentive Graph-based Text-aware Preference Modeling for Top-N
Recommendation [2.3991565023534083]
我々はAttentive Graph-based Text-aware Recommendation Model (AGTM) という新しいモデルを提案する。
本研究では,項目テキストコンテンツと高次接続性の両方を効果的にモデル化し,トップNレコメンデーションをさらに改善することを目的としている。
論文 参考訳(メタデータ) (2023-05-22T12:32:06Z) - Incorporating Relevance Feedback for Information-Seeking Retrieval using
Few-Shot Document Re-Ranking [56.80065604034095]
我々は,クエリとユーザが関連すると考えるドキュメントとの類似性に基づいて,文書を再参照するkNNアプローチを提案する。
異なる統合戦略を評価するため、既存の4つの情報検索データセットを関連フィードバックシナリオに変換する。
論文 参考訳(メタデータ) (2022-10-19T16:19:37Z) - GEMv2: Multilingual NLG Benchmarking in a Single Line of Code [161.1761414080574]
Generation, Evaluation, and Metrics Benchmarkは、データセット、モデル、メトリック開発者のためのモジュラーインフラストラクチャを提供する。
GEMv2は51言語で40のドキュメントデータセットをサポートする。
すべてのデータセットのモデルはオンラインで評価でき、インタラクティブなデータカード作成とレンダリングツールによって、生きたベンチマークに新しいデータセットを簡単に追加できます。
論文 参考訳(メタデータ) (2022-06-22T17:52:30Z) - Utilizing Textual Reviews in Latent Factor Models for Recommender
Systems [1.7361353199214251]
本稿では,テキストレビューに基づく評価モデリング手法とトピックモデリング手法を組み合わせたレコメンデーションアルゴリズムを提案する。
サイズが異なるAmazon.comデータセットを用いてアルゴリズムの性能を評価し,23の製品カテゴリに対応する。
論文 参考訳(メタデータ) (2021-11-16T15:07:51Z) - Tracing Origins: Coref-aware Machine Reading Comprehension [43.352833140317486]
そこで,本研究では,アナフォリック表現を接続する際の人間の読影過程を模倣し,コア参照情報を活用し,事前学習モデルから単語の埋め込みを強化する。
学習段階におけるコア参照情報の明示的な組み込みは,事前学習言語モデルの訓練において,コア参照情報の組み込みよりも優れていたことを実証した。
論文 参考訳(メタデータ) (2021-10-15T09:28:35Z) - A Survey on Neural Recommendation: From Collaborative Filtering to
Content and Context Enriched Recommendation [70.69134448863483]
レコメンデーションの研究は、ニューラルネットワークに基づく新しいレコメンダーモデルの発明にシフトした。
近年,神経リコメンデータモデルの開発が著しい進展を遂げている。
論文 参考訳(メタデータ) (2021-04-27T08:03:52Z) - Self-supervised Learning for Large-scale Item Recommendations [18.19202958502061]
大規模なレコメンデータモデルは、巨大なカタログから最も関連性の高いアイテムを見つけ出す。
コーパスには何百万から数十億ものアイテムがあり、ユーザーはごく少数のユーザーに対してフィードバックを提供する傾向にある。
大規模項目推薦のためのマルチタスク自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-25T06:21:43Z) - Rich-Item Recommendations for Rich-Users: Exploiting Dynamic and Static
Side Information [20.176329366180934]
ユーザや推奨項目が複数のエンティティタイプを持つリッチなデータ構造であるレコメンデーションシステムの問題について検討する。
我々は、現代の現実世界のレコメンデーションの複雑さを捉えた問題に対する一般的な定式化を提供する。
本稿では,我々の定式化とMEDRESアーキテクチャの2つの実世界のケーススタディを示す。
論文 参考訳(メタデータ) (2020-01-28T17:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。