論文の概要: Do Reviews Matter for Recommendations in the Era of Large Language Models?
- arxiv url: http://arxiv.org/abs/2512.12978v1
- Date: Mon, 15 Dec 2025 04:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.535761
- Title: Do Reviews Matter for Recommendations in the Era of Large Language Models?
- Title(参考訳): 大規模言語モデルの時代におけるレコメンデーションの見直しは重要か?
- Authors: Chee Heng Tan, Huiying Zheng, Jing Wang, Zhuoyi Lin, Shaodi Feng, Huijing Zhan, Xiaoli Li, J. Senthilnath,
- Abstract要約: 大規模言語モデル(LLM)の出現に伴い、レコメンダシステムの展望は大きな変化を遂げている。
伝統的に、ユーザレビューはリコメンデーションの品質を高めるために、リッチでコンテキスト情報の重要な情報源として機能してきた。
本稿では, 深層学習手法とLLMアプローチを比較して, テキストレビューの進化的役割を体系的に検討する。
- 参考スコア(独自算出の注目度): 8.772803183525284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the advent of large language models (LLMs), the landscape of recommender systems is undergoing a significant transformation. Traditionally, user reviews have served as a critical source of rich, contextual information for enhancing recommendation quality. However, as LLMs demonstrate an unprecedented ability to understand and generate human-like text, this raises the question of whether explicit user reviews remain essential in the era of LLMs. In this paper, we provide a systematic investigation of the evolving role of text reviews in recommendation by comparing deep learning methods and LLM approaches. Particularly, we conduct extensive experiments on eight public datasets with LLMs and evaluate their performance in zero-shot, few-shot, and fine-tuning scenarios. We further introduce a benchmarking evaluation framework for review-aware recommender systems, RAREval, to comprehensively assess the contribution of textual reviews to the recommendation performance of review-aware recommender systems. Our framework examines various scenarios, including the removal of some or all textual reviews, random distortion, as well as recommendation performance in data sparsity and cold-start user settings. Our findings demonstrate that LLMs are capable of functioning as effective review-aware recommendation engines, generally outperforming traditional deep learning approaches, particularly in scenarios characterized by data sparsity and cold-start conditions. In addition, the removal of some or all textual reviews and random distortion does not necessarily lead to declines in recommendation accuracy. These findings motivate a rethinking of how user preference from text reviews can be more effectively leveraged. All code and supplementary materials are available at: https://github.com/zhytk/RAREval-data-processing.
- Abstract(参考訳): 大規模言語モデル(LLM)の出現に伴い、レコメンダシステムの展望は大きな変化を遂げている。
伝統的に、ユーザレビューはリコメンデーションの品質を高めるために、リッチでコンテキスト情報の重要な情報源として機能してきた。
しかし、LLMは人間的な文章を理解し、生成する前例のない能力を示すため、LLMの時代において明示的なユーザレビューが不可欠であるかどうかという疑問が提起される。
本稿では,深層学習手法とLLMアプローチを比較して,テキストレビューの進化する役割を体系的に検討する。
特に、LLMを用いて8つの公開データセットに対して広範な実験を行い、ゼロショット、少数ショット、微調整のシナリオでそれらの性能を評価する。
さらに,レビューアウェアレコメンデータシステムのためのベンチマーク評価フレームワークであるRAREvalを導入し,レビューアウェアレコメンデータシステムのレコメンデーション性能に対するテキストレコメンデーションの貢献を総合的に評価する。
本フレームワークでは,テキストレビューの削除,ランダムな歪み,データ空間の推薦性能,コールドスタートユーザ設定など,さまざまなシナリオについて検討する。
以上の結果から,LLMは従来の深層学習手法,特にデータ空間やコールドスタート条件を特徴とするシナリオにおいて,効果的なレビュー対応推薦エンジンとして機能することが示唆された。
さらに、テキストレビューやランダムな歪みを除去することは、推奨精度の低下につながるとは限らない。
これらの知見は、テキストレビューからのユーザの嗜好をより効果的に活用する方法を再考する動機となっている。
すべてのコードと補足資料は、https://github.com/zhytk/RAREval-data-processing.comで入手できる。
関連論文リスト
- Learning to Shop Like Humans: A Review-driven Retrieval-Augmented Recommendation Framework with LLMs [30.748667156183004]
RevBrowseはレビュー駆動のレコメンデーションフレームワークである。
RevBrowseは、ユーザレビューをLLMベースのリグレードプロセスに統合し、候補項目を識別する機能を強化する。
PrefRAGは、ユーザとアイテムの表現を構造化形式に分解する検索拡張モジュールである。
論文 参考訳(メタデータ) (2025-08-31T04:37:43Z) - AI-Driven Review Systems: Evaluating LLMs in Scalable and Bias-Aware Academic Reviews [18.50142644126276]
我々は,人選好のアリーナを用いて,人選好と自動レビューのアライメントを評価する。
我々は、LLMを微調整して人間の好みを予測し、LLM同士の真っ向からの戦いにおいて、どのレビューが好まれるかを予測する。
我々は、公開可能なarXivおよびオープンアクセスのNatureジャーナルのレビューをオンラインで公開し、著者が研究論文をレビューし、改訂し、品質を改善するのに役立つ無料サービスを提供しています。
論文 参考訳(メタデータ) (2024-08-19T19:10:38Z) - CherryRec: Enhancing News Recommendation Quality via LLM-driven Framework [4.4206696279087]
我々は,textitCherryRecという名前のLarge Language Models (LLMs) を用いたニュースレコメンデーションフレームワークを提案する。
CherryRecは、レコメンデーションプロセスを加速しながら、レコメンデーションの品質を保証する。
提案手法の有効性を,ベンチマークデータセット上での最先端のベースライン手法と比較することにより検証する。
論文 参考訳(メタデータ) (2024-06-18T03:33:38Z) - Large Language Models as Evaluators for Recommendation Explanations [23.938202791437337]
我々は,LLMがレコメンデーション・リコメンデーション・リコメンデーションの評価に役立てられるかどうかを検討する。
我々は,評価者ラベルとユーザが提供する真実との相関を計測するために,3段階のメタ評価戦略を設計し,適用する。
本研究は,LLMを評価対象として活用することは,レコメンデーション説明文の評価において,正確かつ再現可能で費用対効果の高いソリューションであることを示す。
論文 参考訳(メタデータ) (2024-06-05T13:23:23Z) - Unlocking the Potential of Large Language Models for Explainable
Recommendations [55.29843710657637]
説明ジェネレータを最近登場した大規模言語モデル(LLM)に置き換える影響は、まだ不明である。
本研究では,シンプルで効果的な2段階説明可能なレコメンデーションフレームワークであるLLMXRecを提案する。
いくつかの重要な微調整技術を採用することで、制御可能で流動的な説明が十分に生成できる。
論文 参考訳(メタデータ) (2023-12-25T09:09:54Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - Is ChatGPT Fair for Recommendation? Evaluating Fairness in Large
Language Model Recommendation [52.62492168507781]
LLM(FaiRLLM)を用いたFairness of Recommendationと呼ばれる新しいベンチマークを提案する。
このベンチマークは、慎重に作成されたメトリクスと、8つの機密属性を考慮に入れたデータセットで構成されている。
FaiRLLMベンチマークを用いて、ChatGPTの評価を行い、レコメンデーションを生成する際には、いくつかの機密属性に対して不公平であることがわかった。
論文 参考訳(メタデータ) (2023-05-12T16:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。