論文の概要: Preserving Privacy and Utility in LLM-Based Product Recommendations
- arxiv url: http://arxiv.org/abs/2505.00951v1
- Date: Fri, 02 May 2025 01:54:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.882139
- Title: Preserving Privacy and Utility in LLM-Based Product Recommendations
- Title(参考訳): LLMによる製品レコメンデーションにおけるプライバシとユーティリティの保護
- Authors: Tina Khezresmaeilzadeh, Jiang Zhang, Dimitrios Andreadis, Konstantinos Psounis,
- Abstract要約: 大言語モデル(LLM)ベースのレコメンデーションシステムは、強力な言語モデルを利用してパーソナライズされた提案を生成する。
これにより、ユーザデータがリモートサーバに送信されることにより、プライバシの懸念が高まり、露出のリスクが増大し、個人情報のコントロールが低下する。
非機密データから機密情報を分離し,後者をクラウドと共有するハイブリッドプライバシ保存レコメンデーションフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.28766264863679
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM)-based recommendation systems leverage powerful language models to generate personalized suggestions by processing user interactions and preferences. Unlike traditional recommendation systems that rely on structured data and collaborative filtering, LLM-based models process textual and contextual information, often using cloud-based infrastructure. This raises privacy concerns, as user data is transmitted to remote servers, increasing the risk of exposure and reducing control over personal information. To address this, we propose a hybrid privacy-preserving recommendation framework which separates sensitive from nonsensitive data and only shares the latter with the cloud to harness LLM-powered recommendations. To restore lost recommendations related to obfuscated sensitive data, we design a de-obfuscation module that reconstructs sensitive recommendations locally. Experiments on real-world e-commerce datasets show that our framework achieves almost the same recommendation utility with a system which shares all data with an LLM, while preserving privacy to a large extend. Compared to obfuscation-only techniques, our approach improves HR@10 scores and category distribution alignment, offering a better balance between privacy and recommendation quality. Furthermore, our method runs efficiently on consumer-grade hardware, making privacy-aware LLM-based recommendation systems practical for real-world use.
- Abstract(参考訳): 大言語モデル(LLM)ベースのレコメンデーションシステムは、強力な言語モデルを活用し、ユーザインタラクションや好みを処理することでパーソナライズされた提案を生成する。
構造化データと協調フィルタリングに依存する従来のレコメンデーションシステムとは異なり、LLMベースのモデルは、しばしばクラウドベースのインフラを使用して、テキストとコンテキストの情報を処理する。
これにより、ユーザデータがリモートサーバに送信されるため、プライバシの懸念が高まり、露出のリスクが増大し、個人情報のコントロールが低下する。
そこで本研究では,非機密データから機密情報を分離し,後者をクラウドと共有し,LCMを利用したレコメンデーションを利用するハイブリッドプライバシ保存レコメンデーションフレームワークを提案する。
難読化された機密データに関連する損失レコメンデーションを復元するため,我々は,機密レコメンデーションを局所的に再構築する難読化モジュールを設計した。
実世界のeコマースデータセットの実験から、我々のフレームワークはLLMとすべてのデータを共有できるシステムで、ほぼ同じレコメンデーションユーティリティを実現し、プライバシを大きな拡張に保ちます。
難読化のみのテクニックと比較して、私たちのアプローチはHR@10スコアとカテゴリ分布のアライメントを改善し、プライバシとレコメンデーション品質のバランスを改善する。
さらに,本手法はコンシューマグレードのハードウェア上で効率よく動作し,プライバシを意識したLCMベースのレコメンデーションシステムを現実の用途に活用する。
関連論文リスト
- A General Pseudonymization Framework for Cloud-Based LLMs: Replacing Privacy Information in Controlled Text Generation [0.6699777383856287]
ChatGPTサービスはクラウドベースの大規模言語モデル(LLM)を活用する
プライバシの懸念は、モデルプロバイダによってプロンプトが送信され、処理されるときに生じる。
クラウドベースのLCMに適用可能な一般的な擬似化フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-21T06:15:53Z) - The Application of Large Language Models in Recommendation Systems [0.0]
大規模言語モデルは、非構造化データソースへのレコメンデーションフレームワークの利用を可能にする強力なツールである。
本稿では,レコメンデーションシステム,特に電子商取引,ソーシャルメディアプラットフォーム,ストリーミングサービス,教育技術におけるLLMの適用について論じる。
論文 参考訳(メタデータ) (2025-01-04T04:02:23Z) - Laser: Parameter-Efficient LLM Bi-Tuning for Sequential Recommendation with Collaborative Information [76.62949982303532]
協調情報を用いた逐次レコメンデーションのためのパラメータ効率の高い大規模言語モデルバイチューニングフレームワーク(Laser)を提案する。
我々のレーザーでは,プレフィックスを用いてユーザと協調的な情報を取り込み,LLMをレコメンデーションタスクに適応させ,サフィックスは言語空間からレコメンデーションスペースへのLLMの出力埋め込みをリコメンデーション項目レコメンデーションスペースに変換する。
M-Formerは軽量なMoEベースのクエリ変換器で、クエリ専門家のセットを使用して、凍結IDベースのシーケンシャルレコメンデータシステムによって符号化された多様なユーザ固有の協調情報を統合する。
論文 参考訳(メタデータ) (2024-09-03T04:55:03Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Spread Preference Annotation: Direct Preference Judgment for Efficient LLM Alignment [72.99676237703099]
大規模言語モデルと人間の嗜好の整合性を高める新しいフレームワークを提案する。
私たちのキーとなるアイデアは、小さな(種)データの中で人間の事前知識を活用することです。
本稿では,ノイズ認識型選好学習アルゴリズムを導入し,生成した選好データにおける品質低下のリスクを軽減する。
論文 参考訳(メタデータ) (2024-06-06T18:01:02Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - CoLLM: Integrating Collaborative Embeddings into Large Language Models for Recommendation [60.2700801392527]
我々は,協調情報をLLMにシームレスに組み込んでレコメンデーションを行う,革新的なLLMRec手法であるCoLLMを紹介する。
CoLLMは、外部の伝統的なモデルを通して協調情報をキャプチャし、LLMの入力トークン埋め込み空間にマッピングする。
大規模な実験により、CoLLMはLLMに協調情報を包括的に統合し、レコメンデーション性能が向上することが確認された。
論文 参考訳(メタデータ) (2023-10-30T12:25:00Z) - Shared MF: A privacy-preserving recommendation system [0.0]
本稿では,共有行列分解方式であるSharedMFを提案する。
まず、分散レコメンデーションシステムを構築し、その後、ローカルデータのプライバシを保護するためにシークレット共有技術を使用する。
論文 参考訳(メタデータ) (2020-08-18T06:19:38Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。