論文の概要: Retrieval-Augmented Purifier for Robust LLM-Empowered Recommendation
- arxiv url: http://arxiv.org/abs/2504.02458v1
- Date: Thu, 03 Apr 2025 10:22:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:57:19.511214
- Title: Retrieval-Augmented Purifier for Robust LLM-Empowered Recommendation
- Title(参考訳): ロバストLDMを用いたリコメンデーションのための検索補助パーファイラ
- Authors: Liangbo Ning, Wenqi Fan, Qing Li,
- Abstract要約: LLM(Large Language Model)を利用したレコメンデーションシステムは、パーソナライズされたレコメンデーションフレームワークに革命をもたらした。
既存のLLMを動力とするRecSysは、小さな摂動に対して非常に脆弱であることが示されている。
有害なユーザプロファイルを浄化するために,外部の協調信号を検索して新しいフレームワーク(RETURN)を提案する。
- 参考スコア(独自算出の注目度): 15.098844020816552
- License:
- Abstract: Recently, Large Language Model (LLM)-empowered recommender systems have revolutionized personalized recommendation frameworks and attracted extensive attention. Despite the remarkable success, existing LLM-empowered RecSys have been demonstrated to be highly vulnerable to minor perturbations. To mitigate the negative impact of such vulnerabilities, one potential solution is to employ collaborative signals based on item-item co-occurrence to purify the malicious collaborative knowledge from the user's historical interactions inserted by attackers. On the other hand, due to the capabilities to expand insufficient internal knowledge of LLMs, Retrieval-Augmented Generation (RAG) techniques provide unprecedented opportunities to enhance the robustness of LLM-empowered recommender systems by introducing external collaborative knowledge. Therefore, in this paper, we propose a novel framework (RETURN) by retrieving external collaborative signals to purify the poisoned user profiles and enhance the robustness of LLM-empowered RecSys in a plug-and-play manner. Specifically, retrieval-augmented perturbation positioning is proposed to identify potential perturbations within the users' historical sequences by retrieving external knowledge from collaborative item graphs. After that, we further retrieve the collaborative knowledge to cleanse the perturbations by using either deletion or replacement strategies and introduce a robust ensemble recommendation strategy to generate final robust predictions. Extensive experiments on three real-world datasets demonstrate the effectiveness of the proposed RETURN.
- Abstract(参考訳): 近年,Large Language Model (LLM) を利用したレコメンデーションシステムは,パーソナライズされたレコメンデーションフレームワークに革命をもたらし,注目を集めている。
顕著な成功にもかかわらず、既存のLLM搭載のRecSysは小さな摂動に対して非常に脆弱であることが示されている。
このような脆弱性のネガティブな影響を軽減するために、攻撃者が挿入した履歴的相互作用から悪意のある協調的知識を浄化するために、アイテムとアイテムの共起に基づく協調的な信号を使用することが考えられる。
一方、LLMの内部知識を不十分に拡張する能力のため、レトリーバル拡張生成(RAG)技術は、外部協調知識を導入してLLMを活用したレコメンデータシステムの堅牢性を高める前例のない機会を提供する。
そこで本稿では, 汚染されたユーザプロファイルを浄化し, LLMを利用したRecSysのロバスト性を高めるために, 外部協調信号を取得する新しいフレームワーク(RETURN)を提案する。
具体的には,協調的な項目グラフから外部知識を抽出することにより,ユーザの履歴シーケンス内の潜在的摂動を特定するために,検索強化摂動位置決めを提案する。
その後、削除戦略と置換戦略を併用し、協調的な知識を回収し、最終的な堅牢な予測を生成するための堅牢なアンサンブルレコメンデーション戦略を導入する。
3つの実世界のデータセットに対する大規模な実験は、提案されたRETURNの有効性を実証している。
関連論文リスト
- EAGER-LLM: Enhancing Large Language Models as Recommenders through Exogenous Behavior-Semantic Integration [60.47645731801866]
大規模言語モデル(LLM)は、高度なレコメンデータシステムの基本バックボーンとしてますます活用されている。
LLMは事前訓練された言語意味論であるが、llm-Backboneを通してゼロから協調意味論を学ぶ。
内因性行動情報と内因性行動情報とを非侵襲的に統合するデコーダのみの生成推薦フレームワークであるEAGER-LLMを提案する。
論文 参考訳(メタデータ) (2025-02-20T17:01:57Z) - Reason4Rec: Large Language Models for Recommendation with Deliberative User Preference Alignment [69.11529841118671]
本稿では,ユーザの嗜好に関する明確な推論を新たなアライメント目標として組み込んだ,新たなDeliberative Recommendationタスクを提案する。
次にReasoningを利用したRecommenderフレームワークを導入する。
論文 参考訳(メタデータ) (2025-02-04T07:17:54Z) - Knowledge Graph Retrieval-Augmented Generation for LLM-based Recommendation [43.505042881783446]
大規模言語モデル(LLM)は目覚ましい成果をもたらし、次世代のレコメンデーターシステムの開発の可能性を示している。
LLMは、LLMのバックボーン、特に幻覚の問題、最新のドメイン固有の知識の欠如に起因する固有の制限に直面している。
本稿では,知識グラフ(KG)から高品質かつ最新の構造情報を検索して,推薦を増強することを提案する。
論文 参考訳(メタデータ) (2025-01-04T08:16:23Z) - Bridging the User-side Knowledge Gap in Knowledge-aware Recommendations with Large Language Models [15.41378841915072]
大規模言語モデル(LLM)は、人間の行動理解と広範囲な現実世界の知識を活用することによってギャップを埋める可能性を提供する。
本稿では,LLMに基づくユーザ側知識推論手法と,慎重に設計した推薦フレームワークを提案する。
提案手法は,特に疎結合なユーザに対して,競合するベースラインと比較して最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-18T06:43:56Z) - Mitigating Propensity Bias of Large Language Models for Recommender Systems [20.823461673845756]
我々は,CLLMR(Counterfactual LLM Recommendation)という新しいフレームワークを紹介する。
本稿では,歴史的相互作用から得られた構造情報をサイド情報表現に暗黙的に埋め込むスペクトルベースのサイド情報エンコーダを提案する。
我々の CLLMR アプローチは LLM ベースのレコメンデータシステムに固有の因果関係を探索する。
論文 参考訳(メタデータ) (2024-09-30T07:57:13Z) - Efficient and Deployable Knowledge Infusion for Open-World Recommendations via Large Language Models [53.547190001324665]
大規模言語モデル(LLM)からユーザとアイテムに関する2種類の外部知識を取得するためのREKIを提案する。
個別の知識抽出と個別の知識抽出を,異なるシナリオのスケールに合わせて開発し,オフラインのリソース消費を効果的に削減する。
実験によると、REKIは最先端のベースラインより優れており、多くの推奨アルゴリズムやタスクと互換性がある。
論文 参考訳(メタデータ) (2024-08-20T03:45:24Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations [0.0]
大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T03:50:09Z) - DRDT: Dynamic Reflection with Divergent Thinking for LLM-based
Sequential Recommendation [53.62727171363384]
進化的思考を伴う動的反射(Dynamic Reflection with Divergent Thinking)という新しい推論原理を導入する。
我々の方法論はダイナミックリフレクション(動的リフレクション)であり、探索、批評、反射を通じて人間の学習をエミュレートするプロセスである。
6つの事前学習 LLM を用いた3つのデータセットに対するアプローチの評価を行った。
論文 参考訳(メタデータ) (2023-12-18T16:41:22Z) - Representation Learning with Large Language Models for Recommendation [33.040389989173825]
本稿では,大規模言語モデル (LLM) を用いた表現学習によるレコメンデータの強化を目的とした,モデルに依存しないフレームワーク RLMRec を提案する。
RLMRecには補助的なテキスト信号が組み込まれており、LLMが権限を持つユーザ/イテムプロファイリングパラダイムを開発し、LLMの意味空間と協調的関係信号の表現空間を整合させる。
論文 参考訳(メタデータ) (2023-10-24T15:51:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。