論文の概要: HyObscure: Hybrid Obscuring for Privacy-Preserving Data Publishing
- arxiv url: http://arxiv.org/abs/2112.07850v1
- Date: Wed, 15 Dec 2021 03:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 16:51:23.748486
- Title: HyObscure: Hybrid Obscuring for Privacy-Preserving Data Publishing
- Title(参考訳): HyObscure: プライバシ保護データパブリッシングのためのハイブリッドオブスカー
- Authors: Xiao Han and Yuncong Yang and Junjie Wu
- Abstract要約: データユーティリティを確保しながらプライバシリークを最小限に抑えることは、プライバシ保存データパブリッシングタスクにおけるデータホルダーにとって重要な問題である。
これまでのほとんどの研究は、1つの種類のデータにのみ関心を持ち、単一のオブスカー法に頼っている。
本研究は,一般化操作と難読化操作の両方を併用する場合に,プライバシ保護データ公開に関する試行的な研究を行う。
- 参考スコア(独自算出の注目度): 7.554593344695387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Minimizing privacy leakage while ensuring data utility is a critical problem
to data holders in a privacy-preserving data publishing task. Most prior
research concerns only with one type of data and resorts to a single obscuring
method, \eg, obfuscation or generalization, to achieve a privacy-utility
tradeoff, which is inadequate for protecting real-life heterogeneous data and
is hard to defend ever-growing machine learning based inference attacks. This
work takes a pilot study on privacy-preserving data publishing when both
generalization and obfuscation operations are employed for heterogeneous data
protection. To this end, we first propose novel measures for privacy and
utility quantification and formulate the hybrid privacy-preserving data
obscuring problem to account for the joint effect of generalization and
obfuscation. We then design a novel hybrid protection mechanism called
HyObscure, to cross-iteratively optimize the generalization and obfuscation
operations for maximum privacy protection under a certain utility guarantee.
The convergence of the iterative process and the privacy leakage bound of
HyObscure are also provided in theory. Extensive experiments demonstrate that
HyObscure significantly outperforms a variety of state-of-the-art baseline
methods when facing various inference attacks under different scenarios.
HyObscure also scales linearly to the data size and behaves robustly with
varying key parameters.
- Abstract(参考訳): データユーティリティを確保しながらプライバシリークを最小限に抑えることは、プライバシ保存データパブリッシングタスクにおけるデータホルダーにとって重要な問題である。
以前のほとんどの研究は、1つのタイプのデータのみに関係しており、実際の異種データを保護するには不十分で、常に成長する機械学習ベースの推論攻撃を防御するのは難しいプライバシ利用のトレードオフを達成するために、1つの難解な方法である \eg, obfuscation, generalizationを頼りにしている。
この研究は、一般化と難読化の両方の操作が異種データ保護に使用される場合、プライバシ保存データパブリッシングに関するパイロット研究を行う。
この目的のために、我々はまずプライバシとユーティリティの定量化のための新しい対策を提案し、一般化と難読化の連立効果を考慮したハイブリッドプライバシ保存データオブシュークリング問題を定式化する。
次にHyObscureと呼ばれる新しいハイブリッド保護機構を設計し、特定のユーティリティ保証の下での最大プライバシー保護のための一般化と難読化操作を相互に最適化する。
反復過程の収束とHyObscureのプライバシー漏洩境界も理論上提供される。
広範囲な実験により、ハイオブスキュアは様々なシナリオで様々な推論攻撃に直面した際に、様々な最先端のベースラインメソッドを大きく上回っていることが示されている。
HyObscureはまた、データサイズに線形にスケールし、異なるキーパラメータで堅牢に振る舞う。
関連論文リスト
- DP-CDA: An Algorithm for Enhanced Privacy Preservation in Dataset Synthesis Through Randomized Mixing [0.8739101659113155]
有効なデータパブリッシングアルゴリズムであるemphDP-CDAを導入する。
提案アルゴリズムは、クラス固有の方法でデータをランダムに混合し、プライバシー保証を確保するために慎重に調整されたランダム性を誘導することにより、合成データセットを生成する。
以上の結果から,DP-CDAを用いた合成データセットは,同一のプライバシー要件下であっても,従来のデータパブリッシングアルゴリズムで生成したデータセットよりも優れた実用性が得られることが示唆された。
論文 参考訳(メタデータ) (2024-11-25T06:14:06Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - FedAdOb: Privacy-Preserving Federated Deep Learning with Adaptive Obfuscation [26.617708498454743]
フェデレーテッド・ラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、共同で機械学習モデルを学習できるコラボレーティブ・アプローチとして登場した。
本稿では,FedAdObと呼ばれる新しい適応難読化機構を提案する。
論文 参考訳(メタデータ) (2024-06-03T08:12:09Z) - RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - InferDPT: Privacy-Preserving Inference for Black-box Large Language Model [66.07752875835506]
InferDPTは、ブラックボックスLSMのプライバシ保護推論のための最初の実用的なフレームワークである。
RANTEXTはInferDPTの摂動モジュールに組み込まれた新しい微分プライバシー機構である。
論文 参考訳(メタデータ) (2023-10-18T18:00:11Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Privacy-Preserving Distributed Expectation Maximization for Gaussian
Mixture Model using Subspace Perturbation [4.2698418800007865]
フェデレーション学習は、プライベートデータの送信を許可せず、中間更新のみを許可するため、プライバシー上の懸念によって動機付けられている。
我々は、各ステップの更新を安全に計算できる、完全に分散化されたプライバシ保存ソリューションを提案する。
数値検証により,提案手法は,精度とプライバシの両面において,既存手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-09-16T09:58:03Z) - One-Bit Matrix Completion with Differential Privacy [6.409622409155275]
差分プライバシー制約下での1ビット行列補完のための新しいフレームワークを提案する。
提案手法は, 精度を損なうことなく, 高いレベルのプライバシを維持することができる。
論文 参考訳(メタデータ) (2021-10-02T03:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。