論文の概要: Unleashing the Power of Large Language Model for Denoising Recommendation
- arxiv url: http://arxiv.org/abs/2502.09058v1
- Date: Thu, 13 Feb 2025 08:19:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:09.011569
- Title: Unleashing the Power of Large Language Model for Denoising Recommendation
- Title(参考訳): 推薦書作成のための大規模言語モデルの活用
- Authors: Shuyao Wang, Zhi Zheng, Yongduo Sui, Hui Xiong,
- Abstract要約: LLaRDは、大規模言語モデルを利用してレコメンデーションシステムのデノーミングを改善するフレームワークである。
LLaRDは、まず観測データから意味的な洞察を豊かにすることにより、認知関連知識を生成する。
その後、ユーザとイテムの相互作用グラフに新しいChain-of-Thought(CoT)技術を導入し、認知のための関係知識を明らかにする。
- 参考スコア(独自算出の注目度): 19.744823605753382
- License:
- Abstract: Recommender systems are crucial for personalizing user experiences but often depend on implicit feedback data, which can be noisy and misleading. Existing denoising studies involve incorporating auxiliary information or learning strategies from interaction data. However, they struggle with the inherent limitations of external knowledge and interaction data, as well as the non-universality of certain predefined assumptions, hindering accurate noise identification. Recently, large language models (LLMs) have gained attention for their extensive world knowledge and reasoning abilities, yet their potential in enhancing denoising in recommendations remains underexplored. In this paper, we introduce LLaRD, a framework leveraging LLMs to improve denoising in recommender systems, thereby boosting overall recommendation performance. Specifically, LLaRD generates denoising-related knowledge by first enriching semantic insights from observational data via LLMs and inferring user-item preference knowledge. It then employs a novel Chain-of-Thought (CoT) technique over user-item interaction graphs to reveal relation knowledge for denoising. Finally, it applies the Information Bottleneck (IB) principle to align LLM-generated denoising knowledge with recommendation targets, filtering out noise and irrelevant LLM knowledge. Empirical results demonstrate LLaRD's effectiveness in enhancing denoising and recommendation accuracy.
- Abstract(参考訳): リコメンダシステムはユーザエクスペリエンスをパーソナライズするために不可欠ですが、しばしば暗黙のフィードバックデータに依存します。
既存の認知研究は、相互作用データから補助情報や学習戦略を取り入れることを含む。
しかし、それらは外部の知識や相互作用データの本質的な制限や、特定の事前定義された仮定の不均一性に悩まされており、正確なノイズ識別を妨げている。
近年,大規模言語モデル (LLMs) は世界の知識と推論能力に注目が集まっているが,レコメンデーションにおける認知度を高める可能性はまだ未定である。
本稿では,LLMを利用したレコメンデーションシステムの改良により,レコメンデーション性能が向上するフレームワークであるLLaRDを紹介する。
具体的には、LLaRDは、まずLLMを通して観測データから意味的な洞察を豊かにし、ユーザの好みの知識を推測することによって、認知関連知識を生成する。
その後、ユーザとイテムの相互作用グラフに新しいChain-of-Thought(CoT)技術を導入し、認知のための関係知識を明らかにする。
最後に、インフォメーション・ボトルネック(IB)の原則を適用して、LLM生成したデノナイズド知識をレコメンデーションターゲットと整合させ、ノイズを除去し、無関係なLLM知識をフィルタリングする。
実験結果から,LLaRDが難聴度と推奨精度を高める効果が示された。
関連論文リスト
- RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - When SparseMoE Meets Noisy Interactions: An Ensemble View on Denoising Recommendation [3.050721435894337]
本稿では,適応アンサンブル学習(Adaptive Ensemble Learning, AEL)を提案する。
AELはスパースゲーティングネットワークを脳として採用し、適切な認知能力の合成に適した専門家を選択する。
モデル複雑性のアンサンブル学習の欠点を解決するために,コンポーネントを積み重ねてサブレコメンダを作成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-19T12:55:34Z) - LLM4DSR: Leveraing Large Language Model for Denoising Sequential Recommendation [27.255048063428077]
シーケンスレコメンダは、ユーザの過去のインタラクションシーケンスに基づいてレコメンデーションを生成する。
これらの配列は、しばしばノイズ相互作用によって汚染され、レコメンデーション性能を著しく損なう。
広い言語モデル (LLM) には広い知識と意味論的推論能力が備わっており、この情報ギャップを埋めるための有望な道筋を提供する。
LLMを用いてシーケンシャルなレコメンデーションを識別するLLM4DSRを提案する。
論文 参考訳(メタデータ) (2024-08-15T15:18:46Z) - Improve Temporal Awareness of LLMs for Sequential Recommendation [61.723928508200196]
大規模言語モデル(LLM)は、幅広い汎用タスクを解く際、印象的なゼロショット能力を示した。
LLMは時間的情報の認識と利用に不足しており、シーケンシャルなデータの理解を必要とするタスクではパフォーマンスが悪い。
LLMに基づくシーケンシャルレコメンデーションのために、歴史的相互作用の中で時間情報を利用する3つのプロンプト戦略を提案する。
論文 参考訳(メタデータ) (2024-05-05T00:21:26Z) - Understanding Privacy Risks of Embeddings Induced by Large Language Models [75.96257812857554]
大きな言語モデルは、人工知能の初期の兆候を示すが、幻覚に苦しむ。
1つの有望な解決策は、外部知識を埋め込みとして保存し、LLMを検索強化世代に支援することである。
近年の研究では、事前学習された言語モデルによるテキスト埋め込みから、元のテキストを部分的に再構築できることが実験的に示されている。
論文 参考訳(メタデータ) (2024-04-25T13:10:48Z) - DIDA: Denoised Imitation Learning based on Domain Adaptation [28.36684781402964]
ノイズのあるデータから学習するためには、模倣者が必要とされるLND(Learning from Noisy Demonstrations)の問題に焦点を当てる。
本稿では、雑音レベルと専門知識レベルを区別する2つの識別器を設計する、ドメイン適応(DIDA)に基づくDenoized Imitation Learningを提案する。
MuJoCoの実験結果は、DIDAが様々な種類のノイズを持つデモから挑戦的な模倣タスクをうまく処理できることを示した。
論文 参考訳(メタデータ) (2024-04-04T11:29:05Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Large Language Models are Efficient Learners of Noise-Robust Speech
Recognition [65.95847272465124]
大規模言語モデル(LLM)の最近の進歩は、自動音声認識(ASR)のための生成誤り訂正(GER)を促進している。
本研究では,このベンチマークをノイズの多い条件に拡張し,GERのデノナイジングをLLMに教えることができるかを検討する。
最新のLLM実験では,単語誤り率を最大53.9%改善し,新たなブレークスルーを実現している。
論文 参考訳(メタデータ) (2024-01-19T01:29:27Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。