論文の概要: Differentially-Private Data Synthetisation for Efficient
Re-Identification Risk Control
- arxiv url: http://arxiv.org/abs/2212.00484v2
- Date: Fri, 29 Sep 2023 10:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 19:25:39.982356
- Title: Differentially-Private Data Synthetisation for Efficient
Re-Identification Risk Control
- Title(参考訳): 効率の良い再同定リスク制御のための微分プライベートデータ合成
- Authors: T\^ania Carvalho and Nuno Moniz and Lu\'is Antunes and Nitesh Chawla
- Abstract要約: $epsilon$-Private-SMOTEは、ノイズによって引き起こされる逆数による合成データ生成と高リスクケースの難読化を組み合わせたものだ。
プライバシのリスクと、生成ネットワーク、変分オートエンコーダ、差分プライバシーベースラインよりも優れた予測性能の競合的な結果を達成する。
- 参考スコア(独自算出の注目度): 2.3964255330849356
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Protecting user data privacy can be achieved via many methods, from
statistical transformations to generative models. However, all of them have
critical drawbacks. For example, creating a transformed data set using
traditional techniques is highly time-consuming. Also, recent deep
learning-based solutions require significant computational resources in
addition to long training phases, and differentially private-based solutions
may undermine data utility. In this paper, we propose $\epsilon$-PrivateSMOTE,
a technique designed for safeguarding against re-identification and linkage
attacks, particularly addressing cases with a high re-identification risk. Our
proposal combines synthetic data generation via noise-induced interpolation to
obfuscate high-risk cases while maximising the data utility of the original
data. Compared to multiple traditional and state-of-the-art
privacy-preservation methods on 17 data sets, $\epsilon$-PrivateSMOTE achieves
competitive results in privacy risk and better predictive performance than
generative adversarial networks, variational autoencoders, and differential
privacy baselines. It also improves energy consumption and time requirements by
at least a factor of 11 and 15, respectively.
- Abstract(参考訳): ユーザデータのプライバシ保護は、統計変換から生成モデルに至るまで、多くの方法で達成できる。
しかし、いずれも重大な欠点がある。
例えば、従来のテクニックを使って変換データセットを作成するのは非常に時間がかかる。
また、近年のディープラーニングベースのソリューションは、長期トレーニングフェーズに加えて、重要な計算資源を必要としており、微分プライベートベースのソリューションはデータユーティリティを損なう可能性がある。
本稿では,再識別やリンケージ攻撃の防止を目的とした手法である$\epsilon$-PrivateSMOTEを提案する。
本提案では,ノイズ誘起補間による合成データ生成を組み合わせることで,高リスクケースを隠蔽し,元のデータの有用性を最大化する。
17データセット上の複数の従来的および最先端のプライバシ保存方法と比較して、$\epsilon$-PrivateSMOTEは、生成的敵ネットワーク、変分オートエンコーダ、差分プライバシーベースラインよりも、プライバシリスクと予測性能の競争的な結果を達成する。
また、エネルギー消費と時間要求をそれぞれ少なくとも11と15の係数で改善する。
関連論文リスト
- Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Trajectory K-Anonymity Model Based on Point Density and Partition [0.0]
本稿では点密度と分割(K PDP)に基づく軌道K匿名性モデルを開発する。
再識別攻撃に抵抗し、k匿名データセットのデータユーティリティ損失を低減する。
論文 参考訳(メタデータ) (2023-07-31T17:10:56Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Linear Model with Local Differential Privacy [0.225596179391365]
プライバシ保護技術は、さまざまな機関間で分散データを解析するために広く研究されている。
セキュアなマルチパーティ計算は、プライバシ保護のために、高いプライバシレベルで、高コストで広く研究されている。
マトリクスマスキング技術は、悪意のある敵に対するセキュアなスキームを暗号化するために用いられる。
論文 参考訳(メタデータ) (2022-02-05T01:18:00Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Hide-and-Seek Privacy Challenge [88.49671206936259]
NeurIPS 2020 Hide-and-Seek Privacy Challengeは、両方の問題を解決するための新しい2トラックの競争だ。
我々の頭から頭までのフォーマットでは、新しい高品質な集中ケア時系列データセットを用いて、合成データ生成トラック(「ヒッシャー」)と患者再識別トラック(「シーカー」)の参加者が直接対決する。
論文 参考訳(メタデータ) (2020-07-23T15:50:59Z) - P3GM: Private High-Dimensional Data Release via Privacy Preserving
Phased Generative Model [23.91327154831855]
本稿では,プライバシ保護型位相生成モデル(P3GM)を提案する。
P3GMは2段階の学習プロセスを採用し、ノイズに対して堅牢にし、学習効率を向上させる。
最先端の手法と比較して、生成したサンプルはノイズが少なく、データ多様性の観点からも元のデータに近いように見える。
論文 参考訳(メタデータ) (2020-06-22T09:47:54Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。