論文の概要: Robust and Differentially Private Mean Estimation
- arxiv url: http://arxiv.org/abs/2102.09159v1
- Date: Thu, 18 Feb 2021 05:02:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 22:51:42.813345
- Title: Robust and Differentially Private Mean Estimation
- Title(参考訳): ロバストで異なるプライベートな平均推定
- Authors: Xiyang Liu, Weihao Kong, Sham Kakade, and Sewoong Oh
- Abstract要約: 異なるプライバシーは、米国国勢調査から商用デバイスで収集されたデータまで、さまざまなアプリケーションで標準要件として浮上しています。
このようなデータベースの数は、複数のソースからのデータからなり、それらすべてが信頼できるわけではない。
これにより、既存のプライベート分析は、腐敗したデータを注入する敵による攻撃に弱い。
- 参考スコア(独自算出の注目度): 40.323756738056616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy has emerged as a standard requirement in a variety of
applications ranging from the U.S. Census to data collected in commercial
devices, initiating an extensive line of research in accurately and privately
releasing statistics of a database. An increasing number of such databases
consist of data from multiple sources, not all of which can be trusted. This
leaves existing private analyses vulnerable to attacks by an adversary who
injects corrupted data. Despite the significance of designing algorithms that
guarantee privacy and robustness (to a fraction of data being corrupted)
simultaneously, even the simplest questions remain open. For the canonical
problem of estimating the mean from i.i.d. samples, we introduce the first
efficient algorithm that achieves both privacy and robustness for a wide range
of distributions. This achieves optimal accuracy matching the known lower
bounds for robustness, but the sample complexity has a factor of $d^{1/2}$ gap
from known lower bounds. We further show that this gap is due to the
computational efficiency; we introduce the first family of algorithms that
close this gap but takes exponential time. The innovation is in exploiting
resilience (a key property in robust estimation) to adaptively bound the
sensitivity and improve privacy.
- Abstract(参考訳): 差分プライバシーは、米国国勢調査から商用デバイスで収集されたデータまで、さまざまなアプリケーションにおいて標準要件として現れており、データベースの統計を正確かつプライベートにリリースする広範な研究のラインが始められている。
このようなデータベースの数は、複数のソースからのデータからなり、それらすべてが信頼できるわけではない。
これにより、既存のプライベート分析は、腐敗したデータを注入する敵による攻撃に弱い。
プライバシーと堅牢性を同時に保証するアルゴリズムを設計することの重要性にもかかわらず、最も単純な質問でさえもオープンである。
i.i.d.から平均を推定する標準問題のために
サンプルでは、幅広い分布のプライバシーと堅牢性を実現する最初の効率的なアルゴリズムを紹介します。
これは堅牢性のために既知の下界と一致する最適な精度を実現するが、サンプルの複雑さは既知の下界からの$d^{1/2}$ギャップの因子を有する。
さらに、このギャップは計算効率によるものであり、このギャップを閉じるが指数時間を要するアルゴリズムの最初のファミリーを導入する。
このイノベーションは、レジリエンス(堅牢な推定において重要な特性)を利用して、感度を適応的にバインドし、プライバシーを向上させることです。
関連論文リスト
- Enhanced Privacy Bound for Shuffle Model with Personalized Privacy [32.08637708405314]
Differential Privacy(DP)は、ローカルユーザと中央データキュレーターの間の中間信頼サーバを導入する、強化されたプライバシプロトコルである。
これは、局所的にランダム化されたデータを匿名化しシャッフルすることで、中央のDP保証を著しく増幅する。
この研究は、各ユーザーごとにパーソナライズされたローカルプライバシを必要とする、より実践的な設定のために、中央のプライバシ境界を導出することに焦点を当てている。
論文 参考訳(メタデータ) (2024-07-25T16:11:56Z) - Private Optimal Inventory Policy Learning for Feature-based Newsvendor with Unknown Demand [13.594765018457904]
本稿では, f-differential privacy framework内で, プライバシ保護に最適な在庫ポリシーを推定するための新しいアプローチを提案する。
最適在庫推定のための畳み込み平滑化に基づくクリップ付き雑音勾配降下アルゴリズムを開発した。
提案手法は,コストを極端に増大させることなく,望ましいプライバシー保護を実現することができることを示す。
論文 参考訳(メタデータ) (2024-04-23T19:15:43Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - On the Privacy-Robustness-Utility Trilemma in Distributed Learning [7.778461949427662]
本稿では,少数の対向マシンに対してロバスト性を保証するアルゴリズムによって得られた誤差を,まず厳密に解析する。
私たちの分析は、プライバシ、堅牢性、ユーティリティの基本的なトレードオフを示しています。
論文 参考訳(メタデータ) (2023-02-09T17:24:18Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Private Domain Adaptation from a Public Source [48.83724068578305]
我々は、公開ラベル付きデータを持つソースドメインから、未ラベル付きプライベートデータを持つターゲットドメインへの適応のための差分プライベート離散性に基づくアルゴリズムを設計する。
我々の解は、Frank-WolfeとMirror-Descentアルゴリズムのプライベートな変種に基づいている。
論文 参考訳(メタデータ) (2022-08-12T06:52:55Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。