論文の概要: Practical Considerations for Differential Privacy
- arxiv url: http://arxiv.org/abs/2408.07614v1
- Date: Wed, 14 Aug 2024 15:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 12:53:17.497711
- Title: Practical Considerations for Differential Privacy
- Title(参考訳): 微分プライバシーの実践的考察
- Authors: Kareem Amin, Alex Kulesza, Sergei Vassilvitskii,
- Abstract要約: 差分プライバシーは統計データリリースのゴールドスタンダードである。
広範に普及する過程における現実的な障害について検討する。
- 参考スコア(独自算出の注目度): 17.258815453658993
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy is the gold standard for statistical data release. Used by governments, companies, and academics, its mathematically rigorous guarantees and worst-case assumptions on the strength and knowledge of attackers make it a robust and compelling framework for reasoning about privacy. However, even with landmark successes, differential privacy has not achieved widespread adoption in everyday data use and data protection. In this work we examine some of the practical obstacles that stand in the way.
- Abstract(参考訳): 差分プライバシーは統計データリリースのゴールドスタンダードである。
政府、企業、学者が利用し、その数学的に厳格な保証と、攻撃者の強さと知識に関する最悪の仮定によって、プライバシーを推論するための堅牢で魅力的なフレームワークとなっている。
しかし、目覚ましい成功にもかかわらず、差分プライバシーは日々のデータ利用やデータ保護において広く普及していない。
本研究では,その邪魔となる現実的な障害について検討する。
関連論文リスト
- Synthetic Data: Revisiting the Privacy-Utility Trade-off [4.832355454351479]
ある記事は、合成データは従来の匿名化技術よりもプライバシーとユーティリティのトレードオフが良くないと述べている。
記事はまた、PATEGANとPrivBayesが提供した差分プライバシー保証の違反を特定したと主張している。
本稿で記述したプライバシゲームの実装を分析し,高度に専門的で制約のある環境で動作していることを確認した。
論文 参考訳(メタデータ) (2024-07-09T14:48:43Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Measuring Privacy Loss in Distributed Spatio-Temporal Data [26.891854386652266]
本稿では,情報提供者による位置復元攻撃に対する代替プライバシ損失を提案する。
実データと合成データに関する我々の実験は、分散環境での個人のプライバシー侵害に対する直感を反映していることを示している。
論文 参考訳(メタデータ) (2024-02-18T09:53:14Z) - Privacy and Bias Analysis of Disclosure Avoidance Systems [45.645473465606564]
情報開示回避システム(DA)は、データの機密性を保護し、分析目的で分析および散布を可能にする。
本稿では、これらのメカニズムの異なるプライベートバージョンを提案し、それらのプライバシー境界を導出する、このギャップに対処するフレームワークを提案する。
その結果、一般的な信念とは対照的に、従来の差分プライバシー技術は、広く使われているDA機構の差分プライバシー技術よりも正確性と公平性に優れている可能性が示唆された。
論文 参考訳(メタデータ) (2023-01-28T13:58:25Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Evaluating Privacy-Preserving Machine Learning in Critical
Infrastructures: A Case Study on Time-Series Classification [5.607917328636864]
モデルもデータも、センシティブな情報を抽出するのに使用しないことを確実にすることは、重要なことです。
さまざまな安全クリティカルなユースケース(主に時系列データに依存している)は、現在、プライバシーに関する考慮事項で不足している。
時系列データに適用性に関するいくつかのプライバシー保護手法を評価することにより、深層学習における暗号化の非効率性を検証した。
論文 参考訳(メタデータ) (2021-11-29T12:28:22Z) - Distribution-Invariant Differential Privacy [4.700764053354502]
本研究では,高い統計的精度と厳密な差分プライバシーを両立する分布不変民営化法(DIP)を提案する。
同じ厳密なプライバシー保護の下で、DIPは2つのシミュレーションと3つの実世界のベンチマークで優れた統計的精度を達成する。
論文 参考訳(メタデータ) (2021-11-08T22:26:50Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。