論文の概要: Post-Training Denoising of User Profiles with LLMs in Collaborative Filtering Recommendation
- arxiv url: http://arxiv.org/abs/2601.18009v1
- Date: Sun, 25 Jan 2026 22:01:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.581073
- Title: Post-Training Denoising of User Profiles with LLMs in Collaborative Filtering Recommendation
- Title(参考訳): 協調フィルタリングレコメンデーションにおけるLCMを用いたユーザプロファイルの事前評価
- Authors: Ervin Dervishaj, Maria Maistro, Tuukka Ruotsalo, Christina Lioma,
- Abstract要約: Recommender Systems(RS)をトレーニングするための主要なデータソースであるインプシットフィードバックは、本質的にノイズが多く、推奨の有効性に悪影響を及ぼすことが示されている。
ノイズの多い暗黙のフィードバックを除去し、レコメンデーションを改善する方法として、Denoisingが提案されている。
本稿では,Large Language Models (LLMs) を用いて,協調フィルタリング (CF) レコメンデーションのためのユーザプロファイルの事前学習を行う手法を提案する。
- 参考スコア(独自算出の注目度): 16.42061413705949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit feedback -- the main data source for training Recommender Systems (RSs) -- is inherently noisy and has been shown to negatively affect recommendation effectiveness. Denoising has been proposed as a method for removing noisy implicit feedback and improving recommendations. Prior work has focused on in-training denoising, however this requires additional data, changes to the model architecture and training procedure or fine-tuning, all of which can be costly and data hungry. In this work, we focus on post-training denoising. Different from in-training denoising, post-training denoising does not involve changing the architecture of the model nor its training procedure, and does not require additional data. Specifically, we present a method for post-training denoising user profiles using Large Language Models (LLMs) for Collaborative Filtering (CF) recommendations. Our approach prompts LLMs with (i) a user profile (user interactions), (ii) a candidate item, and (iii) its rank as given by the CF recommender, and asks the LLM to remove items from the user profile to improve the rank of the candidate item. Experiments with a state-of-the-art CF recommender and 4 open and closed source LLMs in 3 datasets show that our denoising yields improvements up to 13% in effectiveness over the original user profiles. Our code is available at https://github.com/edervishaj/denoising-user-profiles-LLM.
- Abstract(参考訳): Recommender Systems(RS)をトレーニングするための主要なデータソースであるインプシットフィードバックは、本質的にノイズが多く、推奨の有効性に悪影響を及ぼすことが示されている。
ノイズの多い暗黙のフィードバックを除去し、レコメンデーションを改善する方法として、Denoisingが提案されている。
以前の作業では、トレーニング中のdenoisingに重点を置いていたが、これには追加のデータ、モデルアーキテクチャの変更、トレーニング手順、微調整が必要だ。
本研究は,ポストトレーニング・デノナイジングに重点を置いている。
イントレーニングのdenoisingとは異なり、ポストトレーニングのdenoisingはモデルのアーキテクチャの変更やトレーニング手順を伴わず、追加のデータを必要としない。
具体的には、協調フィルタリング(CF)レコメンデーションのためのLarge Language Models (LLMs) を用いたユーザプロファイルの学習後評価手法を提案する。
我々のアプローチは LLM を推し進める
(i)ユーザプロファイル(ユーザインタラクション)
(二)候補事項、及び
3)CFレコメンデータが付与するランクを指定し、LCMにユーザプロファイルからアイテムを削除して候補項目のランクを改善するよう依頼する。
3つのデータセットで、最先端のCFレコメンデータと4つのオープンソースLCMを使った実験は、当社のデノベーションが元のユーザプロファイルよりも最大13%改善していることを示している。
私たちのコードはhttps://github.com/edervishaj/denoising-user-knowns-LLM.comで利用可能です。
関連論文リスト
- Teach Me How to Denoise: A Universal Framework for Denoising Multi-modal Recommender Systems via Guided Calibration [3.6854332833964745]
マルチモーダルレコメンデーション(GUIDER)のためのユニバーサルガイド付きイン同期蒸留デノゲーションフレームワークを提案する。
特にGUIDERは、モーダルコンテンツからクリーンでノイズの多いインタラクションを識別するために、再校正戦略を使用している。
暗黙的なユーザフィードバックを処理するために、DBPR(Denoising Bayesian Personalized Ranking)損失関数が組み込まれている。
論文 参考訳(メタデータ) (2025-04-19T07:37:03Z) - Unleashing the Power of Large Language Model for Denoising Recommendation [19.744823605753382]
LLaRDは、大規模言語モデルを利用してレコメンデーションシステムのデノーミングを改善するフレームワークである。
LLaRDは、まず観測データから意味的な洞察を豊かにすることにより、認知関連知識を生成する。
その後、ユーザとイテムの相互作用グラフに新しいChain-of-Thought(CoT)技術を導入し、認知のための関係知識を明らかにする。
論文 参考訳(メタデータ) (2025-02-13T08:19:45Z) - When SparseMoE Meets Noisy Interactions: An Ensemble View on Denoising Recommendation [3.050721435894337]
本稿では,適応アンサンブル学習(Adaptive Ensemble Learning, AEL)を提案する。
AELはスパースゲーティングネットワークを脳として採用し、適切な認知能力の合成に適した専門家を選択する。
モデル複雑性のアンサンブル学習の欠点を解決するために,コンポーネントを積み重ねてサブレコメンダを作成する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-19T12:55:34Z) - Spread Preference Annotation: Direct Preference Judgment for Efficient LLM Alignment [72.99676237703099]
大規模言語モデルと人間の嗜好の整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z) - FedDiv: Collaborative Noise Filtering for Federated Learning with Noisy
Labels [99.70895640578816]
雑音ラベル付きフェデレーション学習(F-LNL)は,協調型分散学習を通じて最適なサーバモデルを求めることを目的としている。
我々はF-LNLの課題に取り組むためにFedDivを提案し、特にフェデレートノイズフィルタと呼ばれるグローバルノイズフィルタを提案する。
論文 参考訳(メタデータ) (2023-12-19T15:46:47Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。