論文の概要: Privacy Risks of LLM-Empowered Recommender Systems: An Inversion Attack Perspective
- arxiv url: http://arxiv.org/abs/2508.03703v1
- Date: Sun, 20 Jul 2025 05:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-10 09:30:49.331398
- Title: Privacy Risks of LLM-Empowered Recommender Systems: An Inversion Attack Perspective
- Title(参考訳): LLMを利用したレコメンダシステムのプライバシーリスク--逆攻撃の視点から
- Authors: Yubo Wang, Min Tang, Nuo Shen, Shujie Cui, Weiqing Wang,
- Abstract要約: 従来のレコメンデーションシステムの限界に対処するために,LLM(Large Language Model)を利用したレコメンデーションパラダイムが提案されている。
この研究は、LLMが推奨システムに権限を与えると、システムとユーザのプライバシの両方を公開できるリコンストラクション攻撃に弱いことを明らかにした。
- 参考スコア(独自算出の注目度): 6.129834080811309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The large language model (LLM) powered recommendation paradigm has been proposed to address the limitations of traditional recommender systems, which often struggle to handle cold start users or items with new IDs. Despite its effectiveness, this study uncovers that LLM empowered recommender systems are vulnerable to reconstruction attacks that can expose both system and user privacy. To examine this threat, we present the first systematic study on inversion attacks targeting LLM empowered recommender systems, where adversaries attempt to reconstruct original prompts that contain personal preferences, interaction histories, and demographic attributes by exploiting the output logits of recommendation models. We reproduce the vec2text framework and optimize it using our proposed method called Similarity Guided Refinement, enabling more accurate reconstruction of textual prompts from model generated logits. Extensive experiments across two domains (movies and books) and two representative LLM based recommendation models demonstrate that our method achieves high fidelity reconstructions. Specifically, we can recover nearly 65 percent of the user interacted items and correctly infer age and gender in 87 percent of the cases. The experiments also reveal that privacy leakage is largely insensitive to the victim model's performance but highly dependent on domain consistency and prompt complexity. These findings expose critical privacy vulnerabilities in LLM empowered recommender systems.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用したレコメンデーションパラダイムは、コールドスタートユーザーや新しいIDを持つアイテムを扱うのに苦労する伝統的なレコメンデーションシステムの制限に対処するために提案されている。
有効性にもかかわらず、LLMが推奨するシステムは、システムとユーザのプライバシの両方を露出できるリコンストラクション攻撃に対して脆弱であることを明らかにする。
提案手法では,レコメンデーションモデルの出力ロジットを利用して,個人的嗜好やインタラクション履歴,階層的属性を含むオリジナルのプロンプトを再構築しようとする。
我々はvec2textフレームワークを再現し、Simisity Guided Refinementと呼ばれる手法を用いて最適化し、モデル生成ロジットからのテキストプロンプトのより正確な再構築を可能にする。
2つの領域(移動と書物)と2つの LLM に基づく推薦モデルにまたがる広範囲な実験により,本手法が高忠実度再構成を実現することを示す。
具体的には、ユーザが操作したアイテムの65%近くを回収し、年齢と性別を正確に推定できる。
実験では、プライバシの漏洩が被害者モデルのパフォーマンスにはほとんど影響しないが、ドメインの一貫性と迅速な複雑性に非常に依存していることも明らかにした。
これらの発見は、LLM権限付きレコメンデーションシステムにおける重要なプライバシー上の脆弱性を明らかにする。
関連論文リスト
- LLM4MEA: Data-free Model Extraction Attacks on Sequential Recommenders via Large Language Models [50.794651919028965]
近年の研究では、モデル抽出攻撃(MEA)に対するシーケンシャルレコメンデータシステムの脆弱性が実証されている。
事前のMEAにおけるブラックボックス攻撃は、データ選択のランダムサンプリングによるレコメンデータシステムの脆弱性を明らかにするのに効果がない。
LLM4MEAは,Large Language Models (LLMs) を人間のようなランク付けとして活用してデータを生成する新しいモデル抽出法である。
論文 参考訳(メタデータ) (2025-07-22T19:20:23Z) - Retrieval-Augmented Purifier for Robust LLM-Empowered Recommendation [15.098844020816552]
LLM(Large Language Model)を利用したレコメンデーションシステムは、パーソナライズされたレコメンデーションフレームワークに革命をもたらした。
既存のLLMを動力とするRecSysは、小さな摂動に対して非常に脆弱であることが示されている。
有害なユーザプロファイルを浄化するために,外部の協調信号を検索して新しいフレームワーク(RETURN)を提案する。
論文 参考訳(メタデータ) (2025-04-03T10:22:30Z) - LLMEmb: Large Language Model Can Be a Good Embedding Generator for Sequential Recommendation [57.49045064294086]
大きな言語モデル(LLM)は、その人気とは無関係に、アイテム間の意味的関係をキャプチャする能力を持つ。
LLMEmb(LLMEmb)は、LCMを利用してアイテム埋め込みを生成し、逐次レコメンダシステム(SRS)の性能を向上させる手法である。
論文 参考訳(メタデータ) (2024-09-30T03:59:06Z) - Generative Explore-Exploit: Training-free Optimization of Generative Recommender Systems using LLM Optimizers [29.739736497044664]
生成レコメンデーションを最適化するためのトレーニング不要なアプローチを提案する。
本研究では,高いエンゲージメントを持つ生成アイテムを活用できるだけでなく,隠された集団の嗜好を積極的に探索し,発見できるジェネレーティブな探索・探索手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T20:41:59Z) - Stealthy Attack on Large Language Model based Recommendation [24.51398285321322]
大規模言語モデル (LLM) はレコメンダシステム (RS) の進歩を推進している。
本研究では,レコメンデーションモデルにLSMを導入することで,項目のテキスト内容に重点を置いているため,新たなセキュリティ脆弱性が生じることを明らかにした。
攻撃者は、テストフェーズ中に単にテキストの内容を変更するだけで、アイテムの露出を大幅に向上させることができることを実証する。
論文 参考訳(メタデータ) (2024-02-18T16:51:02Z) - LoRec: Large Language Model for Robust Sequential Recommendation against Poisoning Attacks [60.719158008403376]
本研究は,リコメンデータシステムにおける未知の不正行為の検出におけるLarge Language Models(LLM)の機能に着目した。
逐次リコメンデータシステムのロバスト性を高めるため,LLM強化を利用した高度なフレームワークであるLoRecを提案する。
総合的な実験により、LoRecは一般的なフレームワークとして、シーケンシャルなレコメンデータシステムの堅牢性を大幅に強化することを示した。
論文 参考訳(メタデータ) (2024-01-31T10:35:53Z) - Empowering Few-Shot Recommender Systems with Large Language Models --
Enhanced Representations [0.0]
大規模言語モデル(LLM)は、明示的なフィードバックベースのレコメンデータシステムで遭遇する少数のシナリオに対処するための、新たな洞察を提供する。
我々の研究は、LLMがレコメンデーターシステムに関わっていることの多面的側面を深く掘り下げるために、研究者に刺激を与えることができる。
論文 参考訳(メタデータ) (2023-12-21T03:50:09Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。