論文の概要: Rethinking Privacy Preserving Deep Learning: How to Evaluate and Thwart
Privacy Attacks
- arxiv url: http://arxiv.org/abs/2006.11601v2
- Date: Tue, 23 Jun 2020 14:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 22:27:29.458537
- Title: Rethinking Privacy Preserving Deep Learning: How to Evaluate and Thwart
Privacy Attacks
- Title(参考訳): プライバシー保護の深層学習を再考する: プライバシー攻撃を評価・阻止する方法
- Authors: Lixin Fan, Kam Woh Ng, Ce Ju, Tianyu Zhang, Chang Liu, Chee Seng Chan,
Qiang Yang
- Abstract要約: 本稿では、モデル精度と、再構築、追跡、およびメンバーシップ攻撃によるプライバシ損失とのトレードオフを計測する。
実験の結果,モデル精度はベースライン機構と比較して平均5~20%向上した。
- 参考スコア(独自算出の注目度): 31.34410250008759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper investigates capabilities of Privacy-Preserving Deep Learning
(PPDL) mechanisms against various forms of privacy attacks. First, we propose
to quantitatively measure the trade-off between model accuracy and privacy
losses incurred by reconstruction, tracing and membership attacks. Second, we
formulate reconstruction attacks as solving a noisy system of linear equations,
and prove that attacks are guaranteed to be defeated if condition (2) is
unfulfilled. Third, based on theoretical analysis, a novel Secret Polarization
Network (SPN) is proposed to thwart privacy attacks, which pose serious
challenges to existing PPDL methods. Extensive experiments showed that model
accuracies are improved on average by 5-20% compared with baseline mechanisms,
in regimes where data privacy are satisfactorily protected.
- Abstract(参考訳): 本稿では,プライバシ保護型ディープラーニング(PPDL)機構の各種プライバシ攻撃に対する機能について検討する。
まず,レコンストラクションやトレース,メンバシップ攻撃によるモデル精度とプライバシ損失のトレードオフを定量的に測定することを提案する。
第2に, 線形方程式のノイズ解消として再構成攻撃を定式化し, 条件(2) が満たされていない場合, 攻撃が破られることが保証されることを示す。
第3に, 理論解析に基づき, 既存のppdl法に重大な課題をもたらすプライバシ攻撃を回避するために, 新たな秘密分極ネットワーク (spn) を提案する。
広範な実験により、データプライバシが十分に保護されているシステムでは、モデルアキュラティがベースラインメカニズムと比較して平均で5~20%向上することが示されている。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Discriminative Adversarial Privacy: Balancing Accuracy and Membership
Privacy in Neural Networks [7.0895962209555465]
DAP(Dariminative Adversarial Privacy)は、モデルの性能、速度、プライバシのバランスを達成するために設計された学習技術である。
DAPは、MIAの誤差を最大化しながら予測誤差を最小化できる新しい損失関数に基づく敵の訓練に依存している。
さらに、パフォーマンスプライバシのトレードオフを捉えるために、AOP(Acuracy Over Privacy)と呼ばれる新しいメトリクスを紹介します。
論文 参考訳(メタデータ) (2023-06-05T17:25:45Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems [15.39058389031301]
FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
提案するFedDefは,理論的保証を備えた新しい最適化型入力摂動防御戦略である。
4つのデータセットに対する4つの既存の防御を実験的に評価し、プライバシ保護の観点から、我々の防衛がすべてのベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-08T15:23:30Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z) - Mitigating Query-Flooding Parameter Duplication Attack on Regression
Models with High-Dimensional Gaussian Mechanism [12.017509695576377]
差分プライバシー(DP)はこの攻撃を緩和する有望な手法と考えられている。
提案手法では,クエリフローディングパラメータ重複(QPD)攻撃によってモデル情報を推測できることを示す。
未承認情報開示を防止するための新しい高次元ガウス(HDG)機構を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。