論文の概要: Practical Privacy Preserving POI Recommendation
- arxiv url: http://arxiv.org/abs/2003.02834v2
- Date: Mon, 27 Apr 2020 06:11:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 06:50:42.576149
- Title: Practical Privacy Preserving POI Recommendation
- Title(参考訳): POI勧告の実践的プライバシー保護
- Authors: Chaochao Chen, Jun Zhou, Bingzhe Wu, Wenjin Fang, Li Wang, Yuan Qi,
Xiaolin Zheng
- Abstract要約: 本稿では,プライバシ保護のためのPOI勧告(PriRec)フレームワークを提案する。
PriRecは、ユーザのプライベートな生データとモデルを自身の手で保持し、ユーザのプライバシを広範囲に保護する。
実世界のデータセットにPriRecを適用し、包括的な実験により、FMと比較すると、PriRecは同等またはそれ以上のレコメンデーション精度を達成した。
- 参考スコア(独自算出の注目度): 26.096197310800328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point-of-Interest (POI) recommendation has been extensively studied and
successfully applied in industry recently. However, most existing approaches
build centralized models on the basis of collecting users' data. Both private
data and models are held by the recommender, which causes serious privacy
concerns. In this paper, we propose a novel Privacy preserving POI
Recommendation (PriRec) framework. First, to protect data privacy, users'
private data (features and actions) are kept on their own side, e.g., Cellphone
or Pad. Meanwhile, the public data need to be accessed by all the users are
kept by the recommender to reduce the storage costs of users' devices. Those
public data include: (1) static data only related to the status of POI, such as
POI categories, and (2) dynamic data depend on user-POI actions such as visited
counts. The dynamic data could be sensitive, and we develop local differential
privacy techniques to release such data to public with privacy guarantees.
Second, PriRec follows the representations of Factorization Machine (FM) that
consists of linear model and the feature interaction model. To protect the
model privacy, the linear models are saved on users' side, and we propose a
secure decentralized gradient descent protocol for users to learn it
collaboratively. The feature interaction model is kept by the recommender since
there is no privacy risk, and we adopt secure aggregation strategy in federated
learning paradigm to learn it. To this end, PriRec keeps users' private raw
data and models in users' own hands, and protects user privacy to a large
extent. We apply PriRec in real-world datasets, and comprehensive experiments
demonstrate that, compared with FM, PriRec achieves comparable or even better
recommendation accuracy.
- Abstract(参考訳): 近年,poi(point-of-interest)勧告が広く研究され,産業に適用されている。
しかし、既存のアプローチのほとんどは、ユーザのデータ収集に基づいて集中型モデルを構築している。
プライベートデータとモデルの両方がレコメンデーターによって保持され、重大なプライバシー上の懸念を引き起こす。
本稿では,PriRec(Privacy Preserving POI Recommendation)フレームワークを提案する。
まず、データのプライバシを保護するため、ユーザのプライベートデータ(機能やアクション)は、携帯電話やパッドなど、独自の側に保持される。
一方、ユーザのデバイスのストレージコストを削減するためには、すべてのユーザが公開データをレコメンデーションによって保持する必要がある。
これらの公開データには、(1)poiカテゴリのようなpoiのステータスのみに関連する静的データ、(2)訪問数のようなユーザー-poiアクションに依存する動的データが含まれる。
動的データはセンシティブで、我々はローカルな差分プライバシー技術を開発し、プライバシー保証付きでそのようなデータを公開します。
第二に、PriRecは線形モデルと特徴相互作用モデルからなる因子化マシン(FM)の表現に従う。
モデルプライバシを保護するために,線形モデルはユーザ側で保存され,ユーザが協調的に学習するためのセキュアな分散勾配降下プロトコルを提案する。
プライバシリスクがないため,機能インタラクションモデルは推奨者によって維持され,フェデレーション学習パラダイムにセキュアなアグリゲーション戦略を採用して学習する。
この目的のために、PriRecはユーザのプライベートな生データとモデルを自身の手で保持し、ユーザのプライバシを広範囲に保護する。
実世界のデータセットにPriRecを適用し、包括的な実験により、FMと比較すると、PriRecは同等またはそれ以上のレコメンデーション精度を達成した。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - A Cautionary Tale: On the Role of Reference Data in Empirical Privacy
Defenses [12.34501903200183]
本稿では,トレーニングデータと参照データの両方に関して,ユーティリティプライバシトレードオフを容易に理解可能なベースラインディフェンスを提案する。
私たちの実験では、驚くべきことに、最もよく研究され、現在最先端の実証的なプライバシー保護よりも優れています。
論文 参考訳(メタデータ) (2023-10-18T17:07:07Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。