論文の概要: Privacy-Preserving Data Synthetisation for Secure Information Sharing
- arxiv url: http://arxiv.org/abs/2212.00484v1
- Date: Thu, 1 Dec 2022 13:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 17:33:39.719164
- Title: Privacy-Preserving Data Synthetisation for Secure Information Sharing
- Title(参考訳): セキュアな情報共有のためのプライバシー保護データ合成
- Authors: T\^ania Carvalho and Nuno Moniz and Pedro Faria and Lu\'is Antunes and
Nitesh Chawla
- Abstract要約: PrivateSMOTEは、再識別の最大のリスクにおいて、ケースを保護するための競争力のある手法である。
これは、データユーティリティ損失を最小限に抑えながら、高リスクケースを難読化するために、合成データ生成によって機能する。
生成的対向ネットワークや変分オートエンコーダなど、ベースラインと同等または高いパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 2.362412515574206
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We can protect user data privacy via many approaches, such as statistical
transformation or generative models. However, each of them has critical
drawbacks. On the one hand, creating a transformed data set using conventional
techniques is highly time-consuming. On the other hand, in addition to long
training phases, recent deep learning-based solutions require significant
computational resources. In this paper, we propose PrivateSMOTE, a technique
designed for competitive effectiveness in protecting cases at maximum risk of
re-identification while requiring much less time and computational resources.
It works by synthetic data generation via interpolation to obfuscate high-risk
cases while minimizing data utility loss of the original data. Compared to
multiple conventional and state-of-the-art privacy-preservation methods on 20
data sets, PrivateSMOTE demonstrates competitive results in re-identification
risk. Also, it presents similar or higher predictive performance than the
baselines, including generative adversarial networks and variational
autoencoders, reducing their energy consumption and time requirements by a
minimum factor of 9 and 12, respectively.
- Abstract(参考訳): 統計変換や生成モデルなど,さまざまなアプローチを通じてユーザデータのプライバシを保護することが可能です。
しかし、それぞれに重大な欠点がある。
一方,従来の手法を用いた変換データセットの作成には時間を要する。
一方、長期学習フェーズに加えて、近年のディープラーニングベースのソリューションは、かなりの計算資源を必要とする。
本稿では,より少ない時間と計算資源を必要とせず,再同定のリスクを最大に抑えながらケースを保護できる手法である privatesmote を提案する。
補間による合成データ生成によって高リスクのケースを隠蔽し、元のデータのデータユーティリティ損失を最小限に抑える。
従来と最先端のプライバシ保存手法を20データセットで比較した場合,PrivateSMOTEは再識別リスクの競合結果を示す。
また、生成する対向ネットワークと変分オートエンコーダを含むベースラインと類似または高い予測性能を示し、そのエネルギー消費と時間要求をそれぞれ9と12の最小係数で削減する。
関連論文リスト
- Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - A Trajectory K-Anonymity Model Based on Point Density and Partition [0.0]
本稿では点密度と分割(K PDP)に基づく軌道K匿名性モデルを開発する。
再識別攻撃に抵抗し、k匿名データセットのデータユーティリティ損失を低減する。
論文 参考訳(メタデータ) (2023-07-31T17:10:56Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Efficient Logistic Regression with Local Differential Privacy [0.0]
モノのインターネット(Internet of Things)デバイスは急速に拡大し、大量のデータを生み出している。
これらのデバイスから収集されたデータを探索する必要性が高まっている。
コラボレーション学習は、モノのインターネット(Internet of Things)設定に戦略的ソリューションを提供すると同時に、データのプライバシに関する一般の懸念も引き起こす。
論文 参考訳(メタデータ) (2022-02-05T22:44:03Z) - Linear Model with Local Differential Privacy [0.225596179391365]
プライバシ保護技術は、さまざまな機関間で分散データを解析するために広く研究されている。
セキュアなマルチパーティ計算は、プライバシ保護のために、高いプライバシレベルで、高コストで広く研究されている。
マトリクスマスキング技術は、悪意のある敵に対するセキュアなスキームを暗号化するために用いられる。
論文 参考訳(メタデータ) (2022-02-05T01:18:00Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Hide-and-Seek Privacy Challenge [88.49671206936259]
NeurIPS 2020 Hide-and-Seek Privacy Challengeは、両方の問題を解決するための新しい2トラックの競争だ。
我々の頭から頭までのフォーマットでは、新しい高品質な集中ケア時系列データセットを用いて、合成データ生成トラック(「ヒッシャー」)と患者再識別トラック(「シーカー」)の参加者が直接対決する。
論文 参考訳(メタデータ) (2020-07-23T15:50:59Z) - P3GM: Private High-Dimensional Data Release via Privacy Preserving
Phased Generative Model [23.91327154831855]
本稿では,プライバシ保護型位相生成モデル(P3GM)を提案する。
P3GMは2段階の学習プロセスを採用し、ノイズに対して堅牢にし、学習効率を向上させる。
最先端の手法と比較して、生成したサンプルはノイズが少なく、データ多様性の観点からも元のデータに近いように見える。
論文 参考訳(メタデータ) (2020-06-22T09:47:54Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。