論文の概要: Large Language Models are Competitive Near Cold-start Recommenders for
Language- and Item-based Preferences
- arxiv url: http://arxiv.org/abs/2307.14225v1
- Date: Wed, 26 Jul 2023 14:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 12:09:50.619405
- Title: Large Language Models are Competitive Near Cold-start Recommenders for
Language- and Item-based Preferences
- Title(参考訳): 大規模言語モデルは、言語とアイテムに基づく好みのコールドスタートレコメンデーションと競争している
- Authors: Scott Sanner and Krisztian Balog and Filip Radlinski and Ben Wedin and
Lucas Dixon
- Abstract要約: 言語ベースの嗜好を表現するダイアログインタフェースは、嗜好入力に対して根本的に異なるモダリティを提供する。
近年の大規模言語モデル(LLM)のパラダイム導入の成功に触発されて,提案手法の活用について検討した。
- 参考スコア(独自算出の注目度): 33.81337282939615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional recommender systems leverage users' item preference history to
recommend novel content that users may like. However, modern dialog interfaces
that allow users to express language-based preferences offer a fundamentally
different modality for preference input. Inspired by recent successes of
prompting paradigms for large language models (LLMs), we study their use for
making recommendations from both item-based and language-based preferences in
comparison to state-of-the-art item-based collaborative filtering (CF) methods.
To support this investigation, we collect a new dataset consisting of both
item-based and language-based preferences elicited from users along with their
ratings on a variety of (biased) recommended items and (unbiased) random items.
Among numerous experimental results, we find that LLMs provide competitive
recommendation performance for pure language-based preferences (no item
preferences) in the near cold-start case in comparison to item-based CF
methods, despite having no supervised training for this specific task
(zero-shot) or only a few labels (few-shot). This is particularly promising as
language-based preference representations are more explainable and scrutable
than item-based or vector-based representations.
- Abstract(参考訳): 従来のレコメンダシステムでは,ユーザの項目選択履歴を活用して,ユーザが好む可能性のある新たなコンテンツを推奨する。
しかし、ユーザが言語ベースの好みを表現できるモダンなダイアログインターフェースは、好み入力に対して根本的に異なるモダリティを提供する。
近年の大規模言語モデル(LLM)のパラダイム導入の成功に触発されて,現在最先端の項目ベース協調フィルタリング(CF)手法と比較して,項目ベースと言語ベースの両方で推奨する手法について検討した。
この調査を支援するために,様々な推奨項目(バイアス)および(バイアスのない)ランダム項目に対する評価とともに,ユーザから誘導される項目ベースと言語ベースの選好の両方からなる新しいデータセットを収集した。
多くの実験結果の中で, LLM は, 特定のタスク (ゼロショット) や少数のラベル (ファウショット) を指導していないにもかかわらず, アイテムベースCF 法と比較して, 近い冷間開始時の純粋言語に基づく選好(項目選好)に対して, 競争力のあるレコメンデーション性能を提供することがわかった。
言語ベースの嗜好表現は、アイテムベースやベクトルベースの表現よりも説明可能で精査可能であるため、これは特に有望である。
関連論文リスト
- Align-SLM: Textless Spoken Language Models with Reinforcement Learning from AI Feedback [50.84142264245052]
テキストレス音声言語モデル(SLM)のセマンティック理解を強化するためのAlign-SLMフレームワークを導入する。
提案手法は、与えられたプロンプトから複数の音声継続を生成し、意味的指標を用いて、直接選好最適化(DPO)のための選好データを生成する。
語彙および構文モデリングのためのZeroSpeech 2021ベンチマーク、意味的コヒーレンスのためのStoryClozeデータセットの音声バージョン、GPT4-oスコアや人間評価などの音声生成指標を用いて、フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-11-04T06:07:53Z) - ComPO: Community Preferences for Language Model Personalization [122.54846260663922]
ComPOは、言語モデルにおける好みの最適化をパーソナライズする手法である。
ComPRedはRedditからコミュニティレベルの好みを持った質問応答データセットです。
論文 参考訳(メタデータ) (2024-10-21T14:02:40Z) - Language Representations Can be What Recommenders Need: Findings and Potentials [57.90679739598295]
先進的なLM表現から線形にマッピングされた項目表現は、より優れたレコメンデーション性能が得られることを示す。
この結果は、先進言語表現空間と効果的な項目表現空間との同型性を示唆している。
本研究は,自然言語処理とリコメンデーションシステムコミュニティの両方に刺激を与える言語モデリングと行動モデリングの関連性を強調した。
論文 参考訳(メタデータ) (2024-07-07T17:05:24Z) - Bayesian Optimization with LLM-Based Acquisition Functions for Natural Language Preference Elicitation [18.550311424902358]
大規模言語モデル(LLM)は、完全な自然言語(NL)PE対話を可能にする。
ユーザの好みの発話とNL項目記述の間で自然言語推論(NLI)を利用する新しいNL-PEアルゴリズムであるPEBOLを提案する。
PEBOLは最大0.27のMRR@10を達成できるのに対し、最高のモノリシックLCMベースラインのMRR@10は0.17のMRR@10を達成できる。
論文 参考訳(メタデータ) (2024-05-02T03:35:21Z) - Comparing Bad Apples to Good Oranges: Aligning Large Language Models via Joint Preference Optimization [105.3612692153615]
大きな言語モデル(LLM)を整列させる一般的な手法は、人間の好みを取得することに依存する。
本稿では,命令応答対に対して協調的に好みを抽出する新たな軸を提案する。
また,LLMのアライメントを大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-31T02:05:40Z) - Parameter-Efficient Conversational Recommender System as a Language
Processing Task [52.47087212618396]
会話レコメンデータシステム(CRS)は,自然言語会話を通じてユーザの嗜好を喚起することで,ユーザに対して関連項目を推薦することを目的としている。
先行作業では、アイテムのセマンティック情報、対話生成のための言語モデル、関連する項目のランク付けのためのレコメンデーションモジュールとして、外部知識グラフを利用することが多い。
本稿では、自然言語の項目を表現し、CRSを自然言語処理タスクとして定式化する。
論文 参考訳(メタデータ) (2024-01-25T14:07:34Z) - Recommendation as Instruction Following: A Large Language Model
Empowered Recommendation Approach [83.62750225073341]
我々は、大規模言語モデル(LLM)による指示としてレコメンデーションを考える。
まず、ユーザの好み、意図、タスクフォーム、コンテキストを自然言語で記述するための一般的な命令形式を設計する。
そして、39の命令テンプレートを手動で設計し、大量のユーザ個人化された命令データを自動的に生成する。
論文 参考訳(メタデータ) (2023-05-11T17:39:07Z) - Beyond Single Items: Exploring User Preferences in Item Sets with the
Conversational Playlist Curation Dataset [20.42354123651454]
私たちはこのタスクを会話アイテムセットキュレーションと呼びます。
本稿では,会話環境におけるアイテムセットのリアルな嗜好を効率的に収集する新しいデータ収集手法を提案する。
我々は、それが他の方法では表現されない好みを表現することにつながることを示している。
論文 参考訳(メタデータ) (2023-03-13T00:39:04Z) - COLA: Improving Conversational Recommender Systems by Collaborative
Augmentation [9.99763097964222]
アイテム表現学習とユーザ嗜好モデリングの両方を改善するために,協調的拡張(COLA)手法を提案する。
すべての会話から対話型ユーザテムグラフを構築し,ユーザ認識情報によってアイテム表現を拡大する。
ユーザの嗜好モデルを改善するため,学習コーパスから類似した会話を検索し,ユーザの興味を反映した関連項目や属性を用いてユーザ表現を増強する。
論文 参考訳(メタデータ) (2022-12-15T12:37:28Z) - Discovering Personalized Semantics for Soft Attributes in Recommender
Systems using Concept Activation Vectors [34.56323846959459]
インタラクティブなレコメンデータシステムは、ユーザがよりリッチな方法で意図、好み、制約、コンテキストを表現することを可能にする。
課題の1つは、ユーザのセマンティックな意図を、しばしば望ましい項目を記述するために使用されるオープンエンドの用語や属性から推測することである。
このような属性のセマンティクスを捉える表現を学習し、それをレコメンデーションシステムにおけるユーザの好みや行動に結びつけるためのフレームワークを開発する。
論文 参考訳(メタデータ) (2022-02-06T18:45:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。