論文の概要: Curator Attack: When Blackbox Differential Privacy Auditing Loses Its Power
- arxiv url: http://arxiv.org/abs/2411.16516v1
- Date: Mon, 25 Nov 2024 16:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:17:56.506925
- Title: Curator Attack: When Blackbox Differential Privacy Auditing Loses Its Power
- Title(参考訳): キュレーター攻撃:Blackboxの差別的プライバシー監査がパワーを失う
- Authors: Shiming Wang, Liyao Xiang, Bowei Cheng, Zhe Ji, Tianran Sun, Xinbing Wang,
- Abstract要約: 差分プライバシーのためのBlackbox監査は、その有効性と幅広いシナリオへの適用性から人気を集めている。
しかし、ブラックボックスの監査は本質的にその設定に欠陥があることがわかりました。
本研究の目的は,ブラックボックス監査ツールの限界を明らかにすること,データ所有者にこれらのツールを使用する際のリスクを認識し,より信頼性の高い差分プライバシー監査手法の開発を促すことである。
- 参考スコア(独自算出の注目度): 28.868999615348084
- License:
- Abstract: A surge in data-driven applications enhances everyday life but also raises serious concerns about private information leakage. Hence many privacy auditing tools are emerging for checking if the data sanitization performed meets the privacy standard of the data owner. Blackbox auditing for differential privacy is particularly gaining popularity for its effectiveness and applicability to a wide range of scenarios. Yet, we identified that blackbox auditing is essentially flawed with its setting: small probabilities or densities are ignored due to inaccurate observation. Our argument is based on a solid false positive analysis from a hypothesis testing perspective, which is missed out by prior blackbox auditing tools. This oversight greatly reduces the reliability of these tools, as it allows malicious or incapable data curators to pass the auditing with an overstated privacy guarantee, posing significant risks to data owners. We demonstrate the practical existence of such threats in classical differential privacy mechanisms against four representative blackbox auditors with experimental validations. Our findings aim to reveal the limitations of blackbox auditing tools, empower the data owner with the awareness of risks in using these tools, and encourage the development of more reliable differential privacy auditing methods.
- Abstract(参考訳): データ駆動型アプリケーションの急増は、日常生活を向上させるだけでなく、個人情報漏洩に対する深刻な懸念も引き起こす。
したがって、データサニタイズがデータ所有者のプライバシ標準を満たしているかどうかをチェックするために、多くのプライバシ監査ツールが登場している。
差分プライバシーのためのBlackbox監査は、その有効性と幅広いシナリオへの適用性で特に人気を集めている。
しかし、ブラックボックス監査が本質的には、その設定に欠陥があることが判明した: 観測の不正確な結果、小さな確率や密度が無視される。
我々の議論は、仮説テストの観点からの確固たる偽陽性分析に基づいており、これは以前のブラックボックス監査ツールで見逃されている。
この監視により、悪意のあるデータキュレーターや無能なデータキュレーターが過剰なプライバシー保証で監査をパスでき、データ所有者に重大なリスクが生じるため、これらのツールの信頼性が大幅に低下する。
実験的な検証を行った4人の代表的ブラックボックス監査者に対する古典的差分プライバシー機構におけるこのような脅威の実践的存在を実証する。
本研究の目的は,ブラックボックス監査ツールの限界を明らかにすること,データ所有者にこれらのツールを使用する際のリスクを認識し,より信頼性の高い差分プライバシー監査手法の開発を促すことである。
関連論文リスト
- A Summary of Privacy-Preserving Data Publishing in the Local Setting [0.6749750044497732]
統計開示制御は、機密情報を匿名化して暴露するリスクを最小限にすることを目的としている。
マイクロデータの復号化に使用される現在のプライバシ保存技術について概説し、様々な開示シナリオに適したプライバシ対策を掘り下げ、情報損失と予測性能の指標を評価する。
論文 参考訳(メタデータ) (2023-12-19T04:23:23Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Debugging Differential Privacy: A Case Study for Privacy Auditing [60.87570714269048]
監査は、微分プライベートなスキームの欠陥を見つけるためにも利用できることを示す。
このケーススタディでは、微分プライベートなディープラーニングアルゴリズムの最近のオープンソース実装を監査し、99.9999999999%の信頼を得て、この実装が要求される差分プライバシー保証を満たさないことを発見した。
論文 参考訳(メタデータ) (2022-02-24T17:31:08Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - On the Privacy-Utility Tradeoff in Peer-Review Data Analysis [34.0435377376779]
ピアレビューの改善に関する研究における大きな障害は、ピアレビューデータの利用不可能である。
我々は、特定の会議のピアレビューデータのプライバシー保護のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-29T21:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。