論文の概要: Preserving Privacy in Personalized Models for Distributed Mobile
Services
- arxiv url: http://arxiv.org/abs/2101.05855v1
- Date: Thu, 14 Jan 2021 20:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 02:58:07.022527
- Title: Preserving Privacy in Personalized Models for Distributed Mobile
Services
- Title(参考訳): 分散モバイルサービスのためのパーソナライズドモデルにおけるプライバシ保護
- Authors: Akanksha Atrey, Prashant Shenoy, David Jensen
- Abstract要約: 我々は,コンテキスト対応モバイルサービスのためのプライバシー保護型パーソナライズシステムであるpelicanを提案する。
Pelicanは、プライバシーの漏洩を最大75%削減できることを示しています。
- 参考スコア(独自算出の注目度): 6.0158981171030685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ubiquity of mobile devices has led to the proliferation of mobile
services that provide personalized and context-aware content to their users.
Modern mobile services are distributed between end-devices, such as
smartphones, and remote servers that reside in the cloud. Such services thrive
on their ability to predict future contexts to pre-fetch content of make
context-specific recommendations. An increasingly common method to predict
future contexts, such as location, is via machine learning (ML) models. Recent
work in context prediction has focused on ML model personalization where a
personalized model is learned for each individual user in order to tailor
predictions or recommendations to a user's mobile behavior. While the use of
personalized models increases efficacy of the mobile service, we argue that it
increases privacy risk since a personalized model encodes contextual behavior
unique to each user. To demonstrate these privacy risks, we present several
attribute inference-based privacy attacks and show that such attacks can leak
privacy with up to 78% efficacy for top-3 predictions. We present Pelican, a
privacy-preserving personalization system for context-aware mobile services
that leverages both device and cloud resources to personalize ML models while
minimizing the risk of privacy leakage for users. We evaluate Pelican using
real world traces for location-aware mobile services and show that Pelican can
substantially reduce privacy leakage by up to 75%.
- Abstract(参考訳): モバイルデバイスのユビキタス性は、ユーザに対してパーソナライズされたコンテキスト対応コンテンツを提供するモバイルサービスの急増につながった。
現代のモバイルサービスは、スマートフォンのようなエンドデバイスと、クラウドに存在するリモートサーバの間で分散している。
このようなサービスは、将来のコンテキストを予測し、コンテキスト固有のレコメンデーションのコンテンツを事前にフェッチする能力によって成長します。
ロケーションのような将来のコンテキストを予測するための一般的な方法は、機械学習(ML)モデルである。
コンテキスト予測における最近の研究は、個々のユーザに対してパーソナライズされたモデルを学習して、ユーザのモバイル行動に対する予測やレコメンデーションを調整するmlモデルパーソナライズに焦点を当てている。
パーソナライズされたモデルの使用はモバイルサービスの有効性を高めるが、パーソナライズされたモデルは各ユーザ固有のコンテキスト動作をエンコードするため、プライバシリスクを増大させると主張する。
これらのプライバシリスクを実証するために,属性推論に基づくプライバシ攻撃をいくつか提示するとともに,上位3つの予測に対して,最大78%の有効性でプライバシを漏洩する可能性を示す。
私たちは、デバイスとクラウドのリソースを活用してMLモデルをパーソナライズし、ユーザのプライバシリークのリスクを最小限に抑える、コンテキスト対応モバイルサービスのためのプライバシ保護パーソナライズシステムであるPelicanを紹介します。
位置認識型モバイルサービスにおいて,現実のトレースを用いてPlicanを評価し,プライバシリークを最大75%低減できることを示す。
関連論文リスト
- Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - SODA: Protecting Proprietary Information in On-Device Machine Learning
Models [5.352699766206808]
本稿では,エンド・ツー・エンドのフレームワークであるSODAを提案し,エッジデバイス上でのデプロイとサービスを行う。
以上の結果から,サービス性能,レイテンシ,ストレージへの影響を最小限に抑えつつ,50クエリ未満で89%の精度で,敵対的使用量を検出できることが示唆された。
論文 参考訳(メタデータ) (2023-12-22T20:04:36Z) - Where have you been? A Study of Privacy Risk for Point-of-Interest Recommendation [20.526071564917274]
モビリティデータは、ロケーションベースサービス(LBS)のための機械学習(ML)モデルを構築するために使用できる。
しかし、この種のデータには、自宅や職場など、ユーザの身元に関する機密情報が含まれている可能性があるため、プライバシー漏洩のリスクが伴う。
我々は,POI(point-of-interest)レコメンデーションモデルに適したデータ抽出とメンバシップ推論攻撃を含むプライバシ攻撃スイートを設計する。
論文 参考訳(メタデータ) (2023-10-28T06:17:52Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - Towards a User Privacy-Aware Mobile Gaming App Installation Prediction
Model [0.8602553195689513]
本研究では,モバイルゲームアプリのインストールを需要側プラットフォームの観点から予測するプロセスについて検討する。
プライバシ保護とモデルパフォーマンスのトレードオフについて検討する。
プライバシーを意識したモデルは依然として重要な能力を保っていると結論付けている。
論文 参考訳(メタデータ) (2023-02-07T09:14:59Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - Unsupervised Model Personalization while Preserving Privacy and
Scalability: An Open Problem [55.21502268698577]
本研究では,非教師なしモデルパーソナライゼーションの課題について検討する。
この問題を探求するための新しいDual User-Adaptation Framework(DUA)を提供する。
このフレームワークは、サーバ上のモデルパーソナライズとユーザデバイス上のローカルデータ正規化に柔軟にユーザ適応を分散させる。
論文 参考訳(メタデータ) (2020-03-30T09:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。