論文の概要: Personalized Privacy Amplification via Importance Sampling
- arxiv url: http://arxiv.org/abs/2307.10187v3
- Date: Fri, 28 Mar 2025 17:48:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-31 15:30:32.136730
- Title: Personalized Privacy Amplification via Importance Sampling
- Title(参考訳): 重要度サンプリングによるパーソナライズドプライバシの増幅
- Authors: Dominik Fay, Sebastian Mair, Jens Sjölund,
- Abstract要約: 本稿では,個別化されたプライバシ分析に着目し,重要サンプリングのプライバシ特性について検討する。
重要なサンプリングでは、プライバシはユーティリティとよく一致しているが、サンプルサイズとは相容れないことが分かっています。
本稿では,プライバシと効率のトレードオフを最適化する手法と,コアセット形式の実用性保証に基づく手法を提案する。
- 参考スコア(独自算出の注目度): 3.0636509793595548
- License:
- Abstract: For scalable machine learning on large data sets, subsampling a representative subset is a common approach for efficient model training. This is often achieved through importance sampling, whereby informative data points are sampled more frequently. In this paper, we examine the privacy properties of importance sampling, focusing on an individualized privacy analysis. We find that, in importance sampling, privacy is well aligned with utility but at odds with sample size. Based on this insight, we propose two approaches for constructing sampling distributions: one that optimizes the privacy-efficiency trade-off; and one based on a utility guarantee in the form of coresets. We evaluate both approaches empirically in terms of privacy, efficiency, and accuracy on the differentially private $k$-means problem. We observe that both approaches yield similar outcomes and consistently outperform uniform sampling across a wide range of data sets. Our code is available on GitHub: https://github.com/smair/personalized-privacy-amplification-via-importance-sampling
- Abstract(参考訳): 大規模データセット上でスケーラブルな機械学習を行う場合、モデルの効率的なトレーニングでは、代表サブセットをサブサンプリングすることが一般的なアプローチである。
これはしばしば重要なサンプリングによって達成され、情報的なデータポイントがより頻繁にサンプリングされる。
本稿では,個別化されたプライバシ分析に着目し,重要サンプリングのプライバシ特性について検討する。
重要なサンプリングでは、プライバシはユーティリティとよく一致しているが、サンプルサイズとは相容れないことが分かっています。
この知見に基づいて,プライバシと効率のトレードオフを最適化する手法と,コアセットの形で実用性を保証する手法の2つを提案する。
プライバシ,効率,正確性の両アプローチを,差額$k$-means問題に対して実証的に評価した。
どちらの手法も同様の結果をもたらし、幅広いデータセットにわたって一様サンプリングを一貫して上回っていることを観察する。
私たちのコードはGitHubで入手できる。 https://github.com/smair/personalized-privacy-amplification-via-importance-sampling
関連論文リスト
- Optimal Survey Design for Private Mean Estimation [4.70569058594556]
本研究は、一般私的平均推定のばらつきを最小限に抑える、プライバシを意識した最初の階層化サンプリングスキームを特定する。
本稿では,整数最適設計を同定し,最適設計の構造に関する洞察を提供するための効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-01-30T03:51:25Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Differentially Private Covariate Balancing Causal Inference [8.133739801185271]
差分プライバシーは、プライバシー保護のための主要な数学的枠組みである。
我々のアルゴリズムは、所定のプライバシー予算の下で、整合性やレート最適性などの統計的保証のある点推定と区間推定の両方を生成する。
論文 参考訳(メタデータ) (2024-10-18T18:02:13Z) - Optimal Federated Learning for Nonparametric Regression with Heterogeneous Distributed Differential Privacy Constraints [5.3595271893779906]
本研究では,異なるサーバにまたがる分散サンプルのコンテキストにおける非パラメトリック回帰のためのフェデレーション学習について検討した。
統計の正確さとプライバシーの保護のトレードオフに光を当てている。
論文 参考訳(メタデータ) (2024-06-10T19:34:07Z) - Unified Mechanism-Specific Amplification by Subsampling and Group Privacy Amplification [54.1447806347273]
サブサンプリングによる増幅は、差分プライバシーを持つ機械学習の主要なプリミティブの1つである。
本稿では、メカニズム固有の保証を導出するための最初の一般的なフレームワークを提案する。
サブサンプリングが複数のユーザのプライバシに与える影響を分析する。
論文 参考訳(メタデータ) (2024-03-07T19:36:05Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - RDP-GAN: A R\'enyi-Differential Privacy based Generative Adversarial
Network [75.81653258081435]
GAN(Generative Adversarial Network)は,プライバシ保護の高い現実的なサンプルを生成する能力によって,近年注目を集めている。
しかし、医療記録や財務記録などの機密・私的な訓練例にGANを適用すると、個人の機密・私的な情報を漏らしかねない。
本稿では、学習中の損失関数の値にランダムノイズを慎重に付加することにより、GAN内の差分プライバシー(DP)を実現するR'enyi-differentially private-GAN(RDP-GAN)を提案する。
論文 参考訳(メタデータ) (2020-07-04T09:51:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。