論文の概要: LLM4DSR: Leveraing Large Language Model for Denoising Sequential Recommendation
- arxiv url: http://arxiv.org/abs/2408.08208v1
- Date: Thu, 15 Aug 2024 15:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 13:36:33.506505
- Title: LLM4DSR: Leveraing Large Language Model for Denoising Sequential Recommendation
- Title(参考訳): LLM4DSR:シークエンシャルレコメンデーションのための大規模言語モデル
- Authors: Bohao Wang, Feng Liu, Jiawei Chen, Yudi Wu, Xingyu Lou, Jun Wang, Yan Feng, Chun Chen, Can Wang,
- Abstract要約: シーケンシャルレコメンデーションシステムは、しばしばノイズの多いインタラクションによって汚染される、ユーザの歴史的なインタラクションシーケンスに依存している。
本研究では,LLM4DSRを提案する。LLM4DSRは大規模言語モデルを用いた逐次レコメンデーションを固有化するための手法である。
注目すべきは、LLM4DSRはモデルに依存しないため、修正されたシーケンスを様々なレコメンデーションモデルに柔軟に適用することができることである。
- 参考スコア(独自算出の注目度): 22.370498821103723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequential recommendation systems fundamentally rely on users' historical interaction sequences, which are often contaminated by noisy interactions. Identifying these noisy interactions accurately without additional information is particularly difficult due to the lack of explicit supervisory signals to denote noise. Large Language Models (LLMs), equipped with extensive open knowledge and semantic reasoning abilities, present a promising avenue to bridge this information gap. However, employing LLMs for denoising in sequential recommendation introduces notable challenges: 1) Direct application of pretrained LLMs may not be competent for the denoising task, frequently generating nonsensical responses; 2) Even after fine-tuning, the reliability of LLM outputs remains questionable, especially given the complexity of the task and th inherent hallucinatory issue of LLMs. To tackle these challenges, we propose LLM4DSR, a tailored approach for denoising sequential recommendation using LLMs. We constructed a self-supervised fine-tuning task to activate LLMs' capabilities to identify noisy items and suggest replacements. Furthermore, we developed an uncertainty estimation module that ensures only high-confidence responses are utilized for sequence corrections. Remarkably, LLM4DSR is model-agnostic, allowing the corrected sequences to be flexibly applied across various recommendation models. Extensive experiments validate the superiority of LLM4DSR over existing methods across three datasets and three recommendation backbones.
- Abstract(参考訳): シークエンシャルレコメンデーションシステムは、しばしばノイズの多いインタラクションによって汚染される、ユーザの歴史的なインタラクションシーケンスに基本的に依存する。
ノイズを示す明示的な監視信号が欠如しているため、これらのノイズの相互作用を追加情報なしで正確に識別することは特に困難である。
大規模言語モデル(LLM)は、幅広いオープン知識とセマンティック推論能力を備えており、この情報ギャップを埋めるための有望な道を示す。
しかし、シーケンシャルレコメンデーションにおけるLCMの活用には、注目すべき課題が伴う。
1) 事前訓練されたLLMの直接適用は,過度に非感覚的応答を生じさせるため,特定業務に適さない可能性がある。
2) 微調整後においても, LLM出力の信頼性は疑問視されている。
これらの課題に対処するため,LLMを用いた逐次レコメンデーション法であるLLM4DSRを提案する。
LLMの機能を活性化し,ノイズのある項目を識別し,代替品を提案する自己教師型微調整タスクを構築した。
さらに,高信頼応答のみをシーケンス修正に利用する不確実性推定モジュールを開発した。
注目すべきは、LLM4DSRはモデルに依存しないため、修正されたシーケンスを様々なレコメンデーションモデルに柔軟に適用することができることである。
大規模な実験により、3つのデータセットと3つの推奨バックボーンにわたる既存のメソッドよりもLLM4DSRの方が優れていることが検証された。
関連論文リスト
- LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - Unleashing the Power of Large Language Model for Denoising Recommendation [19.744823605753382]
LLaRDは、大規模言語モデルを利用してレコメンデーションシステムのデノーミングを改善するフレームワークである。
LLaRDは、まず観測データから意味的な洞察を豊かにすることにより、認知関連知識を生成する。
その後、ユーザとイテムの相互作用グラフに新しいChain-of-Thought(CoT)技術を導入し、認知のための関係知識を明らかにする。
論文 参考訳(メタデータ) (2025-02-13T08:19:45Z) - Look Before You Leap: Enhancing Attention and Vigilance Regarding Harmful Content with GuidelineLLM [53.79753074854936]
大規模言語モデル(LLM)は、出現するジェイルブレイク攻撃に対してますます脆弱である。
この脆弱性は現実世界のアプリケーションに重大なリスクをもたらす。
本稿では,ガイドラインLLMという新しい防御パラダイムを提案する。
論文 参考訳(メタデータ) (2024-12-10T12:42:33Z) - RLRF4Rec: Reinforcement Learning from Recsys Feedback for Enhanced Recommendation Reranking [33.54698201942643]
大規模言語モデル(LLM)は、様々な領域で顕著なパフォーマンスを示している。
本稿では,Reinforcement Learning from Recsys Feedback for Enhanced Recommendation Re rankを組み込んだ新しいフレームワークであるRLRF4Recを紹介する。
論文 参考訳(メタデータ) (2024-10-08T11:42:37Z) - From Yes-Men to Truth-Tellers: Addressing Sycophancy in Large Language Models with Pinpoint Tuning [91.79567270986901]
大規模言語モデル(LLM)は、ユーザプロンプトへの順守を、妥当な応答よりも優先する傾向がある。
近年の研究では、教師付き微調整(SFT)を用いて、梅毒問題を軽減することが提案されている。
そこで本研究では,特定の目的のために関心のあるモジュールを調整した新しいピンポイントチューニング(SPT)を提案する。
論文 参考訳(メタデータ) (2024-09-03T07:01:37Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Re2LLM: Reflective Reinforcement Large Language Model for Session-based Recommendation [23.182787000804407]
セッションベースレコメンデーション(SBR)を強化するための有望なアプローチとして,大規模言語モデル(LLM)が登場している。
本稿では,SBRのための反射強化大言語モデル(Re2LLM)を提案する。
論文 参考訳(メタデータ) (2024-03-25T05:12:18Z) - Causal Prompting: Debiasing Large Language Model Prompting based on Front-Door Adjustment [32.12998469814097]
大規模言語モデル(LLM)のバイアスを効果的に軽減するために,正面調整に基づく新たな因果的プロンプト手法を提案する。
実験結果から,提案手法は7つの自然言語処理データセットにおいて優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-03-05T07:47:34Z) - LLMRec: Benchmarking Large Language Models on Recommendation Task [54.48899723591296]
推奨領域におけるLarge Language Models (LLMs) の適用について, 十分に検討されていない。
我々は、評価予測、シーケンシャルレコメンデーション、直接レコメンデーション、説明生成、レビュー要約を含む5つのレコメンデーションタスクにおいて、市販のLLMをベンチマークする。
ベンチマークの結果,LLMは逐次的・直接的推薦といった精度に基づくタスクにおいて適度な熟練度しか示さないことがわかった。
論文 参考訳(メタデータ) (2023-08-23T16:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。