論文の概要: On the Query Complexity of Training Data Reconstruction in Private
Learning
- arxiv url: http://arxiv.org/abs/2303.16372v5
- Date: Sun, 8 Oct 2023 23:34:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 13:53:53.560684
- Title: On the Query Complexity of Training Data Reconstruction in Private
Learning
- Title(参考訳): プライベートラーニングにおけるトレーニングデータ再構成のクエリ複雑さについて
- Authors: Prateeti Mukherjee and Satya Lokam
- Abstract要約: 我々は,ホワイトボックスの敵が学習者に対して行わなければならないクエリ数を分析し,学習データを再構築する。
例えば$(epsilon, delta)$ DPの学習者は任意のコンパクトな距離空間から引き出された訓練データを持つ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze the number of queries that a whitebox adversary needs to make to a
private learner in order to reconstruct its training data. For $(\epsilon,
\delta)$ DP learners with training data drawn from any arbitrary compact metric
space, we provide the \emph{first known lower bounds on the adversary's query
complexity} as a function of the learner's privacy parameters. \emph{Our
results are minimax optimal for every $\epsilon \geq 0, \delta \in [0, 1]$,
covering both $\epsilon$-DP and $(0, \delta)$ DP as corollaries}. Beyond this,
we obtain query complexity lower bounds for $(\alpha, \epsilon)$ R\'enyi DP
learners that are valid for any $\alpha > 1, \epsilon \geq 0$. Finally, we
analyze data reconstruction attacks on locally compact metric spaces via the
framework of Metric DP, a generalization of DP that accounts for the underlying
metric structure of the data. In this setting, we provide the first known
analysis of data reconstruction in unbounded, high dimensional spaces and
obtain query complexity lower bounds that are nearly tight modulo logarithmic
factors.
- Abstract(参考訳): 学習データを再構築するために,ホワイトボックスの敵がプライベート学習者に対して行わなければならないクエリ数を分析する。
任意のコンパクトなメトリック空間から抽出されたトレーニングデータを持つDP学習者に対して、学習者のプライバシーパラメータの関数として、敵のクエリ複雑性に関する \emph{first known lower bounds} を提供する。
\emph{Our results are minimax optimal for every $\epsilon \geq 0, \delta \in [0, 1]$, cover both $\epsilon$-DP and $(0, \delta)$ DP as corollaries}。
さらに、$(\alpha, \epsilon)$ R\'enyi DP 学習者に対して、$\alpha > 1, \epsilon \geq 0$に対して有効なクエリ複雑性の低い境界を得る。
最後に,データの基本となる距離構造を考慮に入れたDPの一般化であるMetric DPの枠組みを用いて,局所コンパクトな距離空間に対するデータ再構成攻撃を分析する。
本研究では,非有界高次元空間におけるデータ再構成に関する最初の既知の解析を行い,ほぼ密なモジュラー対数因子であるクエリ複雑性下限を求める。
関連論文リスト
- Learning Locally Adaptive Metrics that Enhance Structural Representation with $\texttt{LAMINAR}$ [0.0]
$textttLAMINAR$は、データ内の構造表現を強化するために設計された、教師なしの機械学習パイプラインである。
局所適応測定値を生成し、構造的に不変な密度ベースの距離を生成する。
構造化データセットの出力をユークリッド計量と比較することにより、$textttLAMINAR$の有用性を実証する。
論文 参考訳(メタデータ) (2024-11-13T12:13:15Z) - Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - A Combinatorial Approach to Robust PCA [18.740048806623037]
敵の汚職下でのガウスデータの回復問題について検討する。
ガウスノイズは未知の$k$-次元部分空間$U subseteq mathbbRd$と、各データポイントのランダムに選択された座標が敵の制御に該当すると仮定する。
我々の主な結果は、$ks2 = O(d)$のとき、期待して$tilde O(ks/d)$のほぼ最適エラーまですべてのデータポイントを復元する効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2023-11-28T01:49:51Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Differentially Private Exploration in Reinforcement Learning with Linear
Representation [102.17246636801649]
まず,線形混合MDP(Ayob et al., 2020)の設定(モデルベース設定)について検討し,共同・局所微分プライベート(DP)探索を統一的に分析するための枠組みを提供する。
我々はさらに、線形MDP(Jin et al., 2020)におけるプライバシー保護探索(つまりモデルフリー設定)について研究し、$widetildeO(sqrtK/epsilon)$ regret bound for $(epsilon,delta)を提供する。
論文 参考訳(メタデータ) (2021-12-02T19:59:50Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Gradient-Based Empirical Risk Minimization using Local Polynomial
Regression [39.29885444997579]
この論文の主な目標は、勾配降下(GD)や勾配降下(SGD)といった異なるアルゴリズムを比較することである。
損失関数がデータのスムーズな場合、各反復でオラクルを学習し、GDとSGDの両方のオラクル複雑度に打ち勝つことができることを示す。
論文 参考訳(メタデータ) (2020-11-04T20:10:31Z) - Average-case Complexity of Teaching Convex Polytopes via Halfspace
Queries [55.28642461328172]
平均的なケースの教えの複雑さは$Theta(d)$であり、最悪のケースの教えの複雑さは$Theta(n)$とは対照的である。
我々の洞察は、$phi$-separable dichotomiesの平均ケースの複雑さに厳密な拘束力を確立することを可能にする。
論文 参考訳(メタデータ) (2020-06-25T19:59:24Z) - Private Learning of Halfspaces: Simplifying the Construction and
Reducing the Sample Complexity [63.29100726064574]
有限格子上の半空間に対して微分プライベート学習器を$mathbbRd$で$G$で、サンプル複雑性を$approx d2.5cdot 2log*|G|$で表す。
学習者のためのビルディングブロックは、線形実現可能性問題を解くために、微分プライベートな新しいアルゴリズムである。
論文 参考訳(メタデータ) (2020-04-16T16:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。