論文の概要: A Critical Review on the Use (and Misuse) of Differential Privacy in
Machine Learning
- arxiv url: http://arxiv.org/abs/2206.04621v1
- Date: Thu, 9 Jun 2022 17:13:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 15:51:26.890095
- Title: A Critical Review on the Use (and Misuse) of Differential Privacy in
Machine Learning
- Title(参考訳): 機械学習における差分プライバシーの利用(と誤用)に関する批判的レビュー
- Authors: Alberto Blanco-Justicia, David Sanchez, Josep Domingo-Ferrer,
Krishnamurty Muralidhar
- Abstract要約: 機械学習(ML)におけるプライバシー保護のための差分プライバシー(DP)の利用について概観する。
学習モデルの精度を保つことを目的として,DPベースのML実装が非常に緩いため,DPの高度なプライバシー保証を提供していないことを示す。
- 参考スコア(独自算出の注目度): 5.769445676575767
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We review the use of differential privacy (DP) for privacy protection in
machine learning (ML). We show that, driven by the aim of preserving the
accuracy of the learned models, DP-based ML implementations are so loose that
they do not offer the ex ante privacy guarantees of DP. Instead, what they
deliver is basically noise addition similar to the traditional (and often
criticized) statistical disclosure control approach. Due to the lack of formal
privacy guarantees, the actual level of privacy offered must be experimentally
assessed ex post, which is done very seldom. In this respect, we present
empirical results showing that standard anti-overfitting techniques in ML can
achieve a better utility/privacy/efficiency trade-off than DP.
- Abstract(参考訳): 機械学習(ML)におけるプライバシー保護における差分プライバシー(DP)の利用について検討する。
学習モデルの精度を保つことを目的として,DPベースのML実装が非常に緩いため,DPの高度なプライバシー保証を提供していないことを示す。
その代わり、基本的には従来の(そしてしばしば批判される)統計開示制御アプローチと同様のノイズ付加だ。
正式なプライバシー保証が欠如しているため、提供された実際のプライバシーレベルは実験的に評価されなければならない。
本稿では,MLにおける標準のアンチオーバーフィッティング技術がDPよりも実用・民営・効率のトレードオフを向上できることを示す実証的な結果を示す。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Evaluations of Machine Learning Privacy Defenses are Misleading [25.007083740549845]
機械学習プライバシに対する実証的な防御は、証明可能な差分プライバシの保証を禁止します。
先行評価では、最も脆弱なサンプルのプライバシー漏洩を特徴付けることができない。
論文 参考訳(メタデータ) (2024-04-26T13:21:30Z) - Federated Experiment Design under Distributed Differential Privacy [31.06808163362162]
我々は,サービス提供者に対する信頼を最小限にしつつ,ユーザのプライバシの厳格な保護に注力する。
現代のA/Bテストにおいて重要な要素であるが、これまではプライベート分散実験は研究されていない。
これらのメカニズムは、実際に一般的に見られる非常に多くの参加者を扱うために、どのようにスケールアップできるかを示す。
論文 参考訳(メタデータ) (2023-11-07T22:38:56Z) - A Randomized Approach for Tight Privacy Accounting [63.67296945525791]
推定検証リリース(EVR)と呼ばれる新しい差分プライバシーパラダイムを提案する。
EVRパラダイムは、まずメカニズムのプライバシパラメータを推定し、その保証を満たすかどうかを確認し、最後にクエリ出力を解放する。
我々の実証的な評価は、新たに提案されたEVRパラダイムが、プライバシ保護機械学習のユーティリティプライバシトレードオフを改善することを示している。
論文 参考訳(メタデータ) (2023-04-17T00:38:01Z) - How to DP-fy ML: A Practical Guide to Machine Learning with Differential
Privacy [22.906644117887133]
差分プライバシー(DP)は、データ匿名化に関する公式声明を作成するための金の標準となっている。
DPの採用は、DP保護が持つもの、プライバシーが目的とするもの、そしてMLモデルの優れたプライバシ・ユーティリティ・コンピューティングトレードオフを達成することの難しさに関する限られた実践的なガイダンスによって妨げられている。
この研究は自己完結型のガイドであり、DP MLの分野を詳細に概観し、厳格なプライバシー保証を備えた最高のDP MLモデルを達成するための情報を提供する。
論文 参考訳(メタデータ) (2023-03-01T16:56:39Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Privacy in Practice: Private COVID-19 Detection in X-Ray Images
(Extended Version) [3.750713193320627]
私たちは、差分プライバシー(DP)を満たす機械学習モデルを作成します。
我々は、ユーティリティとプライバシのトレードオフをより広範囲に評価し、より厳格なプライバシー予算について検討する。
以上の結果から,MIAの課題依存的実践的脅威によって,必要なプライバシーレベルが異なる可能性が示唆された。
論文 参考訳(メタデータ) (2022-11-21T13:22:29Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。