論文の概要: A Linear Reconstruction Approach for Attribute Inference Attacks against
Synthetic Data
- arxiv url: http://arxiv.org/abs/2301.10053v2
- Date: Mon, 12 Jun 2023 10:42:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 01:30:44.705550
- Title: A Linear Reconstruction Approach for Attribute Inference Attacks against
Synthetic Data
- Title(参考訳): 合成データに対する属性推論攻撃に対する線形再構成手法
- Authors: Meenatchi Sundaram Muthu Selva Annamalai, Andrea Gadotti and Luc
Rocher
- Abstract要約: 合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
- 参考スコア(独自算出の注目度): 0.9023847175654603
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in synthetic data generation (SDG) have been hailed as a
solution to the difficult problem of sharing sensitive data while protecting
privacy. SDG aims to learn statistical properties of real data in order to
generate "artificial" data that are structurally and statistically similar to
sensitive data. However, prior research suggests that inference attacks on
synthetic data can undermine privacy, but only for specific outlier records. In
this work, we introduce a new attribute inference attack against synthetic
data. The attack is based on linear reconstruction methods for aggregate
statistics, which target all records in the dataset, not only outliers. We
evaluate our attack on state-of-the-art SDG algorithms, including Probabilistic
Graphical Models, Generative Adversarial Networks, and recent differentially
private SDG mechanisms. By defining a formal privacy game, we show that our
attack can be highly accurate even on arbitrary records, and that this is the
result of individual information leakage (as opposed to population-level
inference). We then systematically evaluate the tradeoff between protecting
privacy and preserving statistical utility. Our findings suggest that current
SDG methods cannot consistently provide sufficient privacy protection against
inference attacks while retaining reasonable utility. The best method
evaluated, a differentially private SDG mechanism, can provide both protection
against inference attacks and reasonable utility, but only in very specific
settings. Lastly, we show that releasing a larger number of synthetic records
can improve utility but at the cost of making attacks far more effective.
- Abstract(参考訳): 近年の合成データ生成(SDG)の進歩は、プライバシーを保護しながら機密データを共有することの難しい問題に対する解決策として評価されている。
sdgは、センシティブなデータと構造的および統計的に類似した「人工的」データを生成するために、実データの統計特性を学習することを目的としている。
しかし、以前の研究では、合成データに対する推論攻撃はプライバシーを損なう可能性があるが、特定の外れ値の記録に限られていた。
本研究では,合成データに対する新たな属性推論攻撃を提案する。
この攻撃は、アグリゲーション統計のための線形再構成手法に基づいており、データセット内のすべてのレコードをターゲットにしている。
我々は,確率的グラフィカルモデル,ジェネレーティブ・アドバイサル・ネットワーク,最近の差分的SDG機構など,最先端のSDGアルゴリズムに対する攻撃を評価した。
フォーマルなプライバシゲームを定義することで、攻撃は任意のレコードでも極めて正確であり、これは(人口レベルの推測とは対照的に)個々の情報漏洩の結果であることを示す。
次に,プライバシ保護と統計ユーティリティ維持のトレードオフを体系的に評価する。
以上の結果から,現在のSDG法は適切な実用性を維持しつつも,推論攻撃に対する十分なプライバシー保護を提供することはできないことが示唆された。
評価された最良の方法は、差分的にプライベートなSDGメカニズムであり、推論攻撃に対する保護と合理的なユーティリティの両方を提供するが、非常に特定の設定でのみ提供される。
最後に, より多くの合成レコードをリリースすることで, 実用性を向上させることができるが, 攻撃を効果的に行うコストがはるかに高いことを示す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - The Inadequacy of Similarity-based Privacy Metrics: Privacy Attacks against "Truly Anonymous" Synthetic Datasets [12.730435519914415]
実世界の合成データデプロイメントで使用されるプライバシメトリクスを調べ、その信頼性をいくつかの点で実証する。
ReconSynは、メトリクスによってプライベートと見なされるが、個々のレコードに固有の情報をリークする複数の合成データセットを生成するリコンストラクション攻撃である。
ReconSynは列車データから78-100%のアウトレーヤを復元し、ブラックボックスアクセスのみを1つの適合した生成モデルとプライバシメトリクスに含める。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Achilles' Heels: Vulnerable Record Identification in Synthetic Data
Publishing [9.061271587514215]
合成データパブリッシングのための原則付き脆弱なレコード識別手法を提案する。
データセットやジェネレータ間で,従来のアドホック手法よりも優れていることを示す。
合成データジェネレータを差分的にプライベートにすると、脆弱性のあるレコードを正確に識別できることが示される。
論文 参考訳(メタデータ) (2023-06-17T09:42:46Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - privGAN: Protecting GANs from membership inference attacks at low cost [5.735035463793008]
Generative Adversarial Networks (GAN)は、合成画像のリリースを、オリジナルのデータセットを公開せずにデータを共有するための実行可能なアプローチにした。
近年の研究では、GANモデルとその合成データを用いて、相手によるトレーニングセットメンバーシップを推測できることが示されている。
ここでは、ジェネレータが識別器を騙すだけでなく、メンバーシップ推論攻撃を防御するために訓練される新しいGANアーキテクチャ(privGAN)を開発する。
論文 参考訳(メタデータ) (2019-12-31T20:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。