論文の概要: No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy"
- arxiv url: http://arxiv.org/abs/2209.14987v1
- Date: Thu, 29 Sep 2022 17:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 18:12:32.843699
- Title: No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy"
- Title(参考訳): 無料ランチなし「privacy for free:データセットの凝縮はプライバシーにどのように役立つか」
- Authors: Nicholas Carlini and Vitaly Feldman and Milad Nasr
- Abstract要約: データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
- 参考スコア(独自算出の注目度): 75.98836424725437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: New methods designed to preserve data privacy require careful scrutiny.
Failure to preserve privacy is hard to detect, and yet can lead to catastrophic
results when a system implementing a ``privacy-preserving'' method is attacked.
A recent work selected for an Outstanding Paper Award at ICML 2022 (Dong et
al., 2022) claims that dataset condensation (DC) significantly improves data
privacy when training machine learning models. This claim is supported by
theoretical analysis of a specific dataset condensation technique and an
empirical evaluation of resistance to some existing membership inference
attacks.
In this note we examine the claims in the work of Dong et al. (2022) and
describe major flaws in the empirical evaluation of the method and its
theoretical analysis. These flaws imply that their work does not provide
statistically significant evidence that DC improves the privacy of training ML
models over a naive baseline. Moreover, previously published results show that
DP-SGD, the standard approach to privacy preserving ML, simultaneously gives
better accuracy and achieves a (provably) lower membership attack success rate.
- Abstract(参考訳): データプライバシを保護するために設計された新しい方法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出が難しいが,‘プライバシ保護’メソッドを実装するシステムが攻撃を受けると,破滅的な結果につながる可能性がある。
ICML 2022(Dong et al., 2022)のOutstanding Paper Awardに選ばれた最近の研究によると、データセット凝縮(DC)は機械学習モデルをトレーニングする際のデータプライバシを大幅に改善する。
この主張は、特定のデータセット凝縮法の理論解析と、既存のメンバーシップ推論攻撃に対する抵抗の実証評価によって支持されている。
本稿では, dong et al. (2022) の研究におけるクレームを考察し,その方法の実証的評価における大きな欠陥と理論的解析について述べる。
これらの欠陥は、DCが直感的なベースライン上でMLモデルのトレーニングのプライバシを改善するという統計的に重要な証拠を提供していないことを示唆している。
さらに,プライバシ保護MLの標準的なアプローチであるDP-SGDは,精度が向上し,(確実に)メンバーシップ攻撃の成功率も低下することを示す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - A Cautionary Tale: On the Role of Reference Data in Empirical Privacy
Defenses [12.34501903200183]
本稿では,トレーニングデータと参照データの両方に関して,ユーティリティプライバシトレードオフを容易に理解可能なベースラインディフェンスを提案する。
私たちの実験では、驚くべきことに、最もよく研究され、現在最先端の実証的なプライバシー保護よりも優れています。
論文 参考訳(メタデータ) (2023-10-18T17:07:07Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Privacy in Practice: Private COVID-19 Detection in X-Ray Images
(Extended Version) [3.750713193320627]
私たちは、差分プライバシー(DP)を満たす機械学習モデルを作成します。
我々は、ユーティリティとプライバシのトレードオフをより広範囲に評価し、より厳格なプライバシー予算について検討する。
以上の結果から,MIAの課題依存的実践的脅威によって,必要なプライバシーレベルが異なる可能性が示唆された。
論文 参考訳(メタデータ) (2022-11-21T13:22:29Z) - Privacy for Free: How does Dataset Condensation Help Privacy? [21.418263507735684]
私たちは、データセット凝縮(DC)が、プライベートデータ生成のために従来のデータジェネレータを置き換えるためのより良いソリューションであることも確認しています。
我々は、DC合成データの視覚的プライバシとメンバシップのプライバシを、損失ベースと最先端の可能性ベースのメンバシップ推論攻撃の両方を起動することによって実証的に検証する。
論文 参考訳(メタデータ) (2022-06-01T05:39:57Z) - Stratified cross-validation for unbiased and privacy-preserving
federated learning [0.0]
本稿では、重複レコードの繰り返し問題に焦点をあて、もし適切に扱わなければ、モデルの性能を過度に最適化的に見積もる可能性がある。
本稿では,階層化手法を活用して,フェデレート学習環境におけるデータ漏洩を防止する検証手法である階層化クロスバリデーションを紹介し,議論する。
論文 参考訳(メタデータ) (2020-01-22T15:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。