論文の概要: A Zero Auxiliary Knowledge Membership Inference Attack on Aggregate Location Data
- arxiv url: http://arxiv.org/abs/2406.18671v1
- Date: Wed, 26 Jun 2024 18:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-28 18:07:31.647450
- Title: A Zero Auxiliary Knowledge Membership Inference Attack on Aggregate Location Data
- Title(参考訳): 集合的位置データに基づくゼロ補助的知識メンバーシップ推論攻撃
- Authors: Vincent Guan, Florent Guépin, Ana-Maria Cretu, Yves-Alexandre de Montjoye,
- Abstract要約: 位置データを集約するZero Auxiliary Knowledge (ZK) MIAを開発した。
これにより、実際の個々のトレースの補助データセットが不要になる。
ZK MIAは、敵が目標の位置情報のごく一部しか知らない場合でも有効であることを示す。
- 参考スコア(独自算出の注目度): 8.795538320219082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Location data is frequently collected from populations and shared in aggregate form to guide policy and decision making. However, the prevalence of aggregated data also raises the privacy concern of membership inference attacks (MIAs). MIAs infer whether an individual's data contributed to the aggregate release. Although effective MIAs have been developed for aggregate location data, these require access to an extensive auxiliary dataset of individual traces over the same locations, which are collected from a similar population. This assumption is often impractical given common privacy practices surrounding location data. To measure the risk of an MIA performed by a realistic adversary, we develop the first Zero Auxiliary Knowledge (ZK) MIA on aggregate location data, which eliminates the need for an auxiliary dataset of real individual traces. Instead, we develop a novel synthetic approach, such that suitable synthetic traces are generated from the released aggregate. We also develop methods to correct for bias and noise, to show that our synthetic-based attack is still applicable when privacy mechanisms are applied prior to release. Using two large-scale location datasets, we demonstrate that our ZK MIA matches the state-of-the-art Knock-Knock (KK) MIA across a wide range of settings, including popular implementations of differential privacy (DP) and suppression of small counts. Furthermore, we show that ZK MIA remains highly effective even when the adversary only knows a small fraction (10%) of their target's location history. This demonstrates that effective MIAs can be performed by realistic adversaries, highlighting the need for strong DP protection.
- Abstract(参考訳): 位置情報は人口から頻繁に収集され、政策や意思決定を導くために集合形式で共有される。
しかし、集約されたデータの頻度は、メンバーシップ推論攻撃(MIA)のプライバシー上の懸念も引き起こす。
MIAは、個人のデータが集合的なリリースに寄与したかどうかを推測する。
位置データを集約するために有効なMIAが開発されたが、これらは類似の個体群から収集された同一位置上の個々のトレースの広範な補助的データセットにアクセスする必要がある。
この仮定は、位置情報を取り巻く一般的なプライバシー慣行を考えると、現実的ではないことが多い。
現実的な敵が行うMIAのリスクを測定するため、我々は、実際のトレースの補助的データセットを不要とした、最初のZero Auxiliary Knowledge (ZK) MIAを開発した。
代わりに、我々は、放出された集合体から適切な合成痕跡が生成されるような、新しい合成アプローチを開発する。
また, バイアスやノイズを補正する手法を開発し, プライバシメカニズムがリリース前に適用されている場合に, 合成攻撃が適用可能であることを示す。
2つの大規模ロケーションデータセットを用いて、我々のZK MIAが最先端のKnock-Knock(KK) MIAと幅広い設定で一致していることを示す。
さらに,ZK MIAは,相手の位置履歴のごく一部(10%)しか知らない場合でも有効であることを示す。
このことは、現実的な敵によって効果的なMIAが実行可能であることを示し、強いDP保護の必要性を強調している。
関連論文リスト
- Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Evaluating Membership Inference Attacks and Defenses in Federated
Learning [23.080346952364884]
会員推論攻撃(MIA)は、連合学習におけるプライバシー保護への脅威を増大させる。
本稿では,既存のMIAと対応する防衛戦略の評価を行う。
論文 参考訳(メタデータ) (2024-02-09T09:58:35Z) - Achilles' Heels: Vulnerable Record Identification in Synthetic Data
Publishing [9.061271587514215]
合成データパブリッシングのための原則付き脆弱なレコード識別手法を提案する。
データセットやジェネレータ間で,従来のアドホック手法よりも優れていることを示す。
合成データジェネレータを差分的にプライベートにすると、脆弱性のあるレコードを正確に識別できることが示される。
論文 参考訳(メタデータ) (2023-06-17T09:42:46Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Releasing survey microdata with exact cluster locations and additional
privacy safeguards [77.34726150561087]
本稿では,プライバシ保護を付加した独自のマイクロデータの有用性を活用した,代替的なマイクロデータ配信戦略を提案する。
当社の戦略は, 再識別の試みにおいても, 任意の属性に対する再識別リスクを60~80%削減する。
論文 参考訳(メタデータ) (2022-05-24T19:37:11Z) - Knowledge Cross-Distillation for Membership Privacy [0.9087641068861045]
会員推測攻撃(MIA)は、機械学習モデルのトレーニングデータにプライバシー上のリスクをもたらす。
公的なデータを必要としない知識蒸留を用いたMIAに対する新たな防御法を提案する。
論文 参考訳(メタデータ) (2021-11-02T04:16:08Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。