論文の概要: User Behavior Analysis in Privacy Protection with Large Language Models: A Study on Privacy Preferences with Limited Data
- arxiv url: http://arxiv.org/abs/2505.06305v1
- Date: Thu, 08 May 2025 04:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.769821
- Title: User Behavior Analysis in Privacy Protection with Large Language Models: A Study on Privacy Preferences with Limited Data
- Title(参考訳): 大規模言語モデルを用いたプライバシ保護におけるユーザ行動分析 : 限定データを用いたプライバシ優先に関する研究
- Authors: Haowei Yang, Qingyi Lu, Yang Wang, Sibei Liu, Jiayun Zheng, Ao Xiang,
- Abstract要約: 本研究では,大言語モデル(LLM)が,限られたデータを持つシナリオにおいて,プライバシ保護に関連するユーザの行動を分析する方法について検討する。
この研究は匿名化されたユーザプライバシ設定データ、サーベイレスポンス、シミュレートされたデータを利用している。
実験結果から, LLMは限られたデータであっても, プライバシ・プライオリティ・モデリングの精度を著しく向上することが示された。
- 参考スコア(独自算出の注目度): 5.152440245370642
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the widespread application of large language models (LLMs), user privacy protection has become a significant research topic. Existing privacy preference modeling methods often rely on large-scale user data, making effective privacy preference analysis challenging in data-limited environments. This study explores how LLMs can analyze user behavior related to privacy protection in scenarios with limited data and proposes a method that integrates Few-shot Learning and Privacy Computing to model user privacy preferences. The research utilizes anonymized user privacy settings data, survey responses, and simulated data, comparing the performance of traditional modeling approaches with LLM-based methods. Experimental results demonstrate that, even with limited data, LLMs significantly improve the accuracy of privacy preference modeling. Additionally, incorporating Differential Privacy and Federated Learning further reduces the risk of user data exposure. The findings provide new insights into the application of LLMs in privacy protection and offer theoretical support for advancing privacy computing and user behavior analysis.
- Abstract(参考訳): 大規模言語モデル(LLM)の広範な適用により、ユーザのプライバシ保護が重要な研究トピックとなっている。
既存のプライバシ・プライバシ・プライオリティ・モデリング手法は、しばしば大規模なユーザデータに依存し、データ制限のある環境で効果的なプライバシ・プライバシ・プライバシ・プライバシ・ライス・アナリティクスを困難にしている。
本研究では,LLMが限られたデータを持つシナリオにおいて,プライバシ保護に関連するユーザの行動を分析する方法について検討し,ユーザプライバシの嗜好をモデル化するためにFew-shot Learning and Privacy Computingを統合した手法を提案する。
この研究は、匿名化されたユーザプライバシ設定データ、調査応答、シミュレーションデータを利用して、従来のモデリング手法のパフォーマンスをLLMベースの手法と比較する。
実験結果から, LLMは限られたデータであっても, プライバシ・プライオリティ・モデリングの精度を著しく向上することが示された。
さらに、差分プライバシとフェデレートラーニングを取り入れることで、ユーザデータの露出のリスクをさらに低減できる。
この発見は、プライバシ保護におけるLLMの適用に関する新たな洞察を提供し、プライバシコンピューティングの進歩とユーザ行動分析に対する理論的支援を提供する。
関連論文リスト
- Personalized Language Models via Privacy-Preserving Evolutionary Model Merging [57.161917758405465]
大規模言語モデル(LLM)におけるパーソナライゼーションは、個々のユーザまたはユーザグループの好みに合わせてモデルをカスタマイズすることを目指している。
進化的アルゴリズム(PriME)によるプライバシ保護モデルマージを提案する。
PriMEは、ユーザのプライバシを保護しながら、タスク固有のメトリクスを直接最適化するために、勾配のないメソッドを使用している。
論文 参考訳(メタデータ) (2025-03-23T09:46:07Z) - Privacy in Fine-tuning Large Language Models: Attacks, Defenses, and Future Directions [11.338466798715906]
細調整された大規模言語モデル(LLM)は、様々な領域で最先端のパフォーマンスを達成することができる。
本稿では、微調整LDMに関連するプライバシー問題に関する包括的調査を行う。
メンバーシップ推論、データ抽出、バックドア攻撃など、さまざまなプライバシ攻撃に対する脆弱性を強調します。
論文 参考訳(メタデータ) (2024-12-21T06:41:29Z) - LLM-PBE: Assessing Data Privacy in Large Language Models [111.58198436835036]
大規模言語モデル(LLM)は多くのドメインに不可欠なものとなり、データ管理、マイニング、分析におけるアプリケーションを大幅に進歩させた。
この問題の批判的な性質にもかかわらず、LLMにおけるデータプライバシのリスクを総合的に評価する文献は存在しない。
本稿では,LLMにおけるデータプライバシリスクの体系的評価を目的としたツールキットであるLLM-PBEを紹介する。
論文 参考訳(メタデータ) (2024-08-23T01:37:29Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。