論文の概要: TAPAS: a Toolbox for Adversarial Privacy Auditing of Synthetic Data
- arxiv url: http://arxiv.org/abs/2211.06550v1
- Date: Sat, 12 Nov 2022 02:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:54:37.856378
- Title: TAPAS: a Toolbox for Adversarial Privacy Auditing of Synthetic Data
- Title(参考訳): tapas: 合成データのプライバシー監査のためのツールボックス
- Authors: Florimond Houssiau, James Jordon, Samuel N. Cohen, Owen Daniel, Andrew
Elliott, James Geddes, Callum Mole, Camila Rangel-Smith, Lukasz Szpruch
- Abstract要約: 我々は,多種多様なシナリオにおいて,合成データのプライバシを評価するための攻撃用ツールボックスであるTAPASを提案する。
これらの攻撃には、以前の作品の一般化や新しい攻撃が含まれる。
また、合成データに対するプライバシーの脅威を推論するための一般的なフレームワークを導入し、いくつかの例でTAPASを紹介します。
- 参考スコア(独自算出の注目度): 12.541414528872544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personal data collected at scale promises to improve decision-making and
accelerate innovation. However, sharing and using such data raises serious
privacy concerns. A promising solution is to produce synthetic data, artificial
records to share instead of real data. Since synthetic records are not linked
to real persons, this intuitively prevents classical re-identification attacks.
However, this is insufficient to protect privacy. We here present TAPAS, a
toolbox of attacks to evaluate synthetic data privacy under a wide range of
scenarios. These attacks include generalizations of prior works and novel
attacks. We also introduce a general framework for reasoning about privacy
threats to synthetic data and showcase TAPAS on several examples.
- Abstract(参考訳): 大規模に収集された個人データは、意思決定の改善とイノベーションの加速を約束する。
しかし、そのようなデータの共有と利用は、プライバシーの深刻な懸念を引き起こす。
有望な解決策は、実際のデータの代わりに、人工的な記録を共有できる合成データを作ることである。
合成記録は実際の人間に関連付けられていないため、直感的には古典的な再識別攻撃を防いでいる。
しかし、プライバシーを守るには不十分だ。
ここでは、さまざまなシナリオ下で合成データのプライバシーを評価するための攻撃用ツールボックスであるTAPASを紹介する。
これらの攻撃には、先行作品の一般化と新しい攻撃が含まれる。
また,合成データに対するプライバシの脅威を推論する汎用フレームワークを導入し,tapaをいくつかの例で紹介する。
関連論文リスト
- Synthetic Data Outliers: Navigating Identity Disclosure [3.8811062755861956]
合成データのプライバシを外部から分析する。
本研究は, リンク攻撃による異常再同定が可能であり, 容易に達成できることを示唆する。
差分プライバシーなどの追加の保護は、データユーティリティを犠牲にして、再識別を防止することができる。
論文 参考訳(メタデータ) (2024-06-04T19:35:44Z) - The Inadequacy of Similarity-based Privacy Metrics: Privacy Attacks against "Truly Anonymous" Synthetic Datasets [12.730435519914415]
実世界の合成データデプロイメントで使用されるプライバシメトリクスを調べ、その信頼性をいくつかの点で実証する。
ReconSynは、メトリクスによってプライベートと見なされるが、個々のレコードに固有の情報をリークする複数の合成データセットを生成するリコンストラクション攻撃である。
ReconSynは列車データから78-100%のアウトレーヤを復元し、ブラックボックスアクセスのみを1つの適合した生成モデルとプライバシメトリクスに含める。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - Achilles' Heels: Vulnerable Record Identification in Synthetic Data
Publishing [9.061271587514215]
合成データパブリッシングのための原則付き脆弱なレコード識別手法を提案する。
データセットやジェネレータ間で,従来のアドホック手法よりも優れていることを示す。
合成データジェネレータを差分的にプライベートにすると、脆弱性のあるレコードを正確に識別できることが示される。
論文 参考訳(メタデータ) (2023-06-17T09:42:46Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - A Linear Reconstruction Approach for Attribute Inference Attacks against Synthetic Data [1.5293427903448022]
合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
論文 参考訳(メタデータ) (2023-01-24T14:56:36Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Synthetic Data -- Anonymisation Groundhog Day [4.694549066382216]
本稿では,合成データ公開におけるプライバシ向上の定量的評価について述べる。
合成データは、推論攻撃を防ぎ、データの有用性を保たないことを示す。
従来の匿名化とは対照的に、合成データ公開のプライバシーとユーティリティのトレードオフは予測が難しい。
論文 参考訳(メタデータ) (2020-11-13T16:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。