論文の概要: Synthetic Data -- Anonymisation Groundhog Day
- arxiv url: http://arxiv.org/abs/2011.07018v6
- Date: Mon, 24 Jan 2022 10:32:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:46:34.440219
- Title: Synthetic Data -- Anonymisation Groundhog Day
- Title(参考訳): 合成データ - 匿名化の日
- Authors: Theresa Stadler, Bristena Oprisanu, Carmela Troncoso
- Abstract要約: 本稿では,合成データ公開におけるプライバシ向上の定量的評価について述べる。
合成データは、推論攻撃を防ぎ、データの有用性を保たないことを示す。
従来の匿名化とは対照的に、合成データ公開のプライバシーとユーティリティのトレードオフは予測が難しい。
- 参考スコア(独自算出の注目度): 4.694549066382216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic data has been advertised as a silver-bullet solution to
privacy-preserving data publishing that addresses the shortcomings of
traditional anonymisation techniques. The promise is that synthetic data drawn
from generative models preserves the statistical properties of the original
dataset but, at the same time, provides perfect protection against privacy
attacks. In this work, we present the first quantitative evaluation of the
privacy gain of synthetic data publishing and compare it to that of previous
anonymisation techniques.
Our evaluation of a wide range of state-of-the-art generative models
demonstrates that synthetic data either does not prevent inference attacks or
does not retain data utility. In other words, we empirically show that
synthetic data does not provide a better tradeoff between privacy and utility
than traditional anonymisation techniques.
Furthermore, in contrast to traditional anonymisation, the privacy-utility
tradeoff of synthetic data publishing is hard to predict. Because it is
impossible to predict what signals a synthetic dataset will preserve and what
information will be lost, synthetic data leads to a highly variable privacy
gain and unpredictable utility loss. In summary, we find that synthetic data is
far from the holy grail of privacy-preserving data publishing.
- Abstract(参考訳): 合成データは、従来の匿名化技術の欠点に対処するプライバシー保護データパブリッシングの銀塊ソリューションとして宣伝されている。
生成モデルから引き出された合成データは、元のデータセットの統計特性を保持するが、同時に、プライバシ攻撃に対する完全な保護を提供する。
本研究では,合成データ公開におけるプライバシゲインの最初の定量的評価を行い,従来の匿名化手法と比較する。
幅広い最先端生成モデルの評価を行った結果,合成データは推論攻撃を防げないか,データユーティリティを保たないかのどちらかを示した。
言い換えれば、合成データは従来の匿名化技術よりも、プライバシーとユーティリティのトレードオフが良くないことを実証的に示す。
さらに、従来の匿名化とは対照的に、合成データ公開のプライバシー利用トレードオフは予測が難しい。
合成データセットがどのシグナルを保存し、どの情報が失われるかを予測することは不可能であるため、合成データは極めて可変なプライバシ利得と予測不能なユーティリティ損失につながる。
要約すると、合成データはプライバシー保護データ公開の聖杯からかけ離れている。
関連論文リスト
- Scaling While Privacy Preserving: A Comprehensive Synthetic Tabular Data
Generation and Evaluation in Learning Analytics [0.412484724941528]
プライバシーは学習分析(LA)の進歩に大きな障害となり、匿名化の不十分さやデータ誤用といった課題を提示している。
合成データは潜在的な対策として現れ、堅牢なプライバシー保護を提供する。
LAの合成データに関する以前の研究では、プライバシーとデータユーティリティの微妙なバランスを評価するのに不可欠な、徹底的な評価が欠如していた。
論文 参考訳(メタデータ) (2024-01-12T20:27:55Z) - On the Inadequacy of Similarity-based Privacy Metrics: Reconstruction
Attacks against "Truly Anonymous Synthetic Data'' [15.0393231456773]
私たちはこの分野の有力企業が提供するプライバシー指標をレビューし、実証的な評価を通じて、プライバシーを推論する上でいくつかの重大な欠陥を指摘しました。
我々は,低密度の列車記録(または降車率)の少なくとも78%をブラックボックスで回復し,単一の生成モデルとプライバシメトリクスにのみアクセスする再構成攻撃ReconSynを提案する。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - Reimagining Synthetic Tabular Data Generation through Data-Centric AI: A
Comprehensive Benchmark [56.8042116967334]
合成データは、機械学習モデルのトレーニングの代替となる。
合成データが現実世界データの複雑なニュアンスを反映することを保証することは、難しい作業です。
本稿では,データ中心型AI技術の統合による合成データ生成プロセスのガイドの可能性について検討する。
論文 参考訳(メタデータ) (2023-10-25T20:32:02Z) - The Use of Synthetic Data to Train AI Models: Opportunities and Risks
for Sustainable Development [0.6906005491572401]
本稿では,合成データの生成,利用,普及を規定する政策について検討する。
優れた合成データポリシーは、プライバシの懸念とデータの有用性のバランスを取らなければならない。
論文 参考訳(メタデータ) (2023-08-31T23:18:53Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Beyond Privacy: Navigating the Opportunities and Challenges of Synthetic
Data [91.52783572568214]
合成データは、機械学習の世界において支配的な力となり、データセットを個々のニーズに合わせて調整できる未来を約束する。
合成データのより広範な妥当性と適用のために,コミュニティが克服すべき根本的な課題について論じる。
論文 参考訳(メタデータ) (2023-04-07T16:38:40Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - TAPAS: a Toolbox for Adversarial Privacy Auditing of Synthetic Data [12.541414528872544]
我々は,多種多様なシナリオにおいて,合成データのプライバシを評価するための攻撃用ツールボックスであるTAPASを提案する。
これらの攻撃には、以前の作品の一般化や新しい攻撃が含まれる。
また、合成データに対するプライバシーの脅威を推論するための一般的なフレームワークを導入し、いくつかの例でTAPASを紹介します。
論文 参考訳(メタデータ) (2022-11-12T02:26:54Z) - Smooth Anonymity for Sparse Binary Matrices [84.60886611165573]
この作業では、スパースデータセット全体を第三者とプライベートに操作し、共有することを目的としています。
実際、差分プライバシーは、プライバシの金の標準として現れていますが、スパースデータセットの共有に関しては、主要な結果の1つとして、偏微分プライベートメカニズムが極めて弱いプライバシ保証を持つ運命にあることを証明しています。
我々は、スムーズな$k$匿名性を示し、スムーズな$k$匿名性を提供する単純なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - Really Useful Synthetic Data -- A Framework to Evaluate the Quality of
Differentially Private Synthetic Data [2.538209532048867]
プライバシ保護の原則を付加する合成データ生成の最近の進歩は、プライバシ保護の方法で統計情報を共有するための重要なステップである。
データプライバシとデータ品質のトレードオフを最適化するためには、後者について詳しく考える必要があります。
本研究では,応用研究者の視点から,差分的にプライベートな合成データの質を評価する枠組みを開発する。
論文 参考訳(メタデータ) (2020-04-16T16:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。