論文の概要: Where have you been? A Study of Privacy Risk for Point-of-Interest
Recommendation
- arxiv url: http://arxiv.org/abs/2310.18606v1
- Date: Sat, 28 Oct 2023 06:17:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 17:45:31.281589
- Title: Where have you been? A Study of Privacy Risk for Point-of-Interest
Recommendation
- Title(参考訳): どこ行ってたの?
ポイント・オブ・インテリジェンス勧告におけるプライバシリスクの検討
- Authors: Kunlin Cai, Jinghuai Zhang, Will Shand, Zhiqing Hong, Guang Wang,
Desheng Zhang, Jianfeng Chi, Yuan Tian
- Abstract要約: 我々は,POI(point-of-interest)レコメンデーションモデルに適したデータ抽出とメンバシップ推論攻撃を含むプライバシ攻撃スイートを設計する。
これらの攻撃は、モビリティデータからさまざまな種類の機密情報を抽出することを目的としており、POIレコメンデーションモデルに対する全体的なプライバシーリスク評価を提供する。
また、プライバシー攻撃の影響を受けやすいモビリティデータの種類を理解するために、ユニークな知見も提示する。
- 参考スコア(独自算出の注目度): 21.29797260544524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As location-based services (LBS) have grown in popularity, the collection of
human mobility data has become increasingly extensive to build machine learning
(ML) models offering enhanced convenience to LBS users. However, the
convenience comes with the risk of privacy leakage since this type of data
might contain sensitive information related to user identities, such as
home/work locations. Prior work focuses on protecting mobility data privacy
during transmission or prior to release, lacking the privacy risk evaluation of
mobility data-based ML models. To better understand and quantify the privacy
leakage in mobility data-based ML models, we design a privacy attack suite
containing data extraction and membership inference attacks tailored for
point-of-interest (POI) recommendation models, one of the most widely used
mobility data-based ML models. These attacks in our attack suite assume
different adversary knowledge and aim to extract different types of sensitive
information from mobility data, providing a holistic privacy risk assessment
for POI recommendation models. Our experimental evaluation using two real-world
mobility datasets demonstrates that current POI recommendation models are
vulnerable to our attacks. We also present unique findings to understand what
types of mobility data are more susceptible to privacy attacks. Finally, we
evaluate defenses against these attacks and highlight future directions and
challenges.
- Abstract(参考訳): 位置情報ベースのサービス(LBS)が普及するにつれて、LBSユーザに利便性を高める機械学習(ML)モデルを構築するために、人間のモビリティデータの収集がますます広まりつつある。
しかし、この種のデータには、自宅や職場など、ユーザのアイデンティティに関連する機密情報が含まれている可能性があるため、プライバシー漏洩のリスクが伴う。
以前の作業では、トランスミッションやリリース前のモビリティデータプライバシ保護に重点を置いており、モビリティデータベースのMLモデルのプライバシリスク評価を欠いている。
移動データに基づくMLモデルにおけるプライバシー漏洩をよりよく理解し、定量化するために、最も広く使われている移動データベースのMLモデルの一つであるPOIレコメンデーションモデルに適した、データ抽出とメンバーシップ推論攻撃を含むプライバシー攻撃スイートを設計する。
攻撃スイートにおけるこれらの攻撃は、異なる敵の知識を前提として、モビリティデータから異なる種類の機密情報を抽出することを目的としており、POI勧告モデルに対する全体的なプライバシーリスク評価を提供する。
2つの実世界のモビリティデータセットを用いた実験により、現在のPOIレコメンデーションモデルが攻撃に対して脆弱であることを実証した。
また、プライバシー攻撃の影響を受けやすいモビリティデータの種類を理解するために、ユニークな知見も提示する。
最後に,これらの攻撃に対する防御性を評価し,今後の方向性と課題を強調する。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Privacy-Preserving Debiasing using Data Augmentation and Machine Unlearning [3.049887057143419]
データ拡張は、メンバシップ推論攻撃のようなプライバシ攻撃に機械学習モデルを公開する。
我々は、既知の攻撃に対して証明可能な防御を提供しながら、データのバイアスを低減することができるデータ強化と機械学習の効果的な組み合わせを提案する。
論文 参考訳(メタデータ) (2024-04-19T21:54:20Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Where you go is who you are -- A study on machine learning based
semantic privacy attacks [3.259843027596329]
本稿では,2つの攻撃シナリオ,すなわち位置分類とユーザプロファイリングを体系的に分析する。
Foursquareのデータセットと追跡データの実験は、高品質な空間情報の悪用の可能性を示している。
以上の結果から,追跡データや空間文脈データのデータベース化のリスクが指摘される。
論文 参考訳(メタデータ) (2023-10-26T17:56:50Z) - RecUP-FL: Reconciling Utility and Privacy in Federated Learning via
User-configurable Privacy Defense [9.806681555309519]
フェデレートラーニング(FL)は、クライアントがプライベートデータを共有せずに、協力的にモデルをトレーニングすることを可能にする。
近年の研究では、共有勾配によってプライベート情報が漏洩する可能性があることが示されている。
本稿では、ユーザ指定の機密属性により焦点を絞ることができる、ユーザ設定可能なプライバシ保護(RecUP-FL)を提案する。
論文 参考訳(メタデータ) (2023-04-11T10:59:45Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Privacy-Aware Adversarial Network in Human Mobility Prediction [11.387235721659378]
ユーザの再識別やその他の機密性の高い推論は、位置情報データがクラウド支援アプリケーションと共有される場合、主要なプライバシー上の脅威である。
LSTMに基づく逆表現学習により、元の位置情報データのプライバシー保護機能表現を実現する。
モビリティトレースのプライバシは、限界モビリティユーティリティーのコストで、まともな保護を達成できることを示します。
論文 参考訳(メタデータ) (2022-08-09T19:23:13Z) - Survey: Leakage and Privacy at Inference Time [59.957056214792665]
公開されている機械学習(ML)モデルからのデータの漏洩は、ますます重要になっている分野である。
公開モデルの最も可能性の高いシナリオとして、推論時のリークに注目します。
本稿では,不随意・不随意の漏洩,防御,そして現在利用可能な評価指標と応用にまたがる分類法を提案する。
論文 参考訳(メタデータ) (2021-07-04T12:59:16Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。