論文の概要: Non-Asymptotic Lower Bounds For Training Data Reconstruction
- arxiv url: http://arxiv.org/abs/2303.16372v4
- Date: Wed, 24 May 2023 21:44:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 20:39:08.330976
- Title: Non-Asymptotic Lower Bounds For Training Data Reconstruction
- Title(参考訳): 訓練データ再構成のための非漸近下限
- Authors: Prateeti Mukherjee and Satya Lokam
- Abstract要約: 本研究は,データ再構築攻撃の訓練に対するレジリエンスを調査し,私的学習者が与える保護の厳密な評価を提示する。
我々は、コンパクトな距離空間に属する対象標本に対して、$(epsilon, delta)$微分プライベートな学習者に対して、任意の敵によって引き起こされる再構成誤差の漸近的でない下限を導出した。
我々は,入力データ次元が敵のクエリ予算よりも大きい場合の高次元状態をカバーするために解析を拡張し,その限界が一定の条件下で最適であることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mathematical notions of privacy, such as differential privacy, are often
stated as probabilistic guarantees that are difficult to interpret. It is
imperative, however, that the implications of data sharing be effectively
communicated to the data principal to ensure informed decision-making and offer
full transparency with regards to the associated privacy risks. To this end,
our work presents a rigorous quantitative evaluation of the protection
conferred by private learners by investigating their resilience to training
data reconstruction attacks. We accomplish this by deriving non-asymptotic
lower bounds on the reconstruction error incurred by any adversary against
$(\epsilon, \delta)$ differentially private learners for target samples that
belong to any compact metric space. Working with a generalization of
differential privacy, termed metric privacy, we remove boundedness assumptions
on the input space prevalent in prior work, and prove that our results hold for
general locally compact metric spaces. We extend the analysis to cover the high
dimensional regime, wherein, the input data dimensionality may be larger than
the adversary's query budget, and demonstrate that our bounds are minimax
optimal under certain regimes.
- Abstract(参考訳): 微分プライバシーのような数学的プライバシーの概念は、しばしば解釈が難しい確率的保証として表現される。
しかし、データ共有の意義をデータプリンシパルに効果的に伝え、情報に基づく意思決定を確実にし、関連するプライバシーリスクに関して完全な透明性を提供することが不可欠である。
そこで本研究では,個人学習者によるデータ復元攻撃に対するレジリエンス調査を行い,保護の厳格な定量的評価を行った。
我々は、任意のコンパクト距離空間に属する対象サンプルに対して$(\epsilon, \delta)$の微分的個人学習者に対して、任意の敵によって生じる再構成誤差の非漸近的下限を導出することによりこれを達成する。
差分プライバシの一般化、いわゆるメトリックプライバシにより、先行作業で一般的な入力空間上の有界性仮定を取り除き、その結果が一般の局所コンパクト距離空間に対して成り立つことを証明します。
我々は,入力データ次元が敵のクエリ予算よりも大きい場合の高次元状態をカバーするために解析を拡張し,その限界が一定の条件下で最適であることを示す。
関連論文リスト
- Learning Locally Adaptive Metrics that Enhance Structural Representation with $\texttt{LAMINAR}$ [0.0]
$textttLAMINAR$は、データ内の構造表現を強化するために設計された、教師なしの機械学習パイプラインである。
局所適応測定値を生成し、構造的に不変な密度ベースの距離を生成する。
構造化データセットの出力をユークリッド計量と比較することにより、$textttLAMINAR$の有用性を実証する。
論文 参考訳(メタデータ) (2024-11-13T12:13:15Z) - Private Mean Estimation with Person-Level Differential Privacy [6.621676316292624]
複数のサンプルを持つ場合の個人レベルの個人別平均推定について検討した。
我々は、計算効率のよいアルゴリズムを、純粋DPで、計算効率の悪いアルゴリズムを、ほぼ一致する下界は、近似DPの最も寛容な場合を抑える。
論文 参考訳(メタデータ) (2024-05-30T18:20:35Z) - Projection by Convolution: Optimal Sample Complexity for Reinforcement Learning in Continuous-Space MDPs [56.237917407785545]
本稿では,円滑なベルマン作用素を持つ連続空間マルコフ決定過程(MDP)の一般クラスにおいて,$varepsilon$-optimal Policyを学習する問題を考察する。
我々のソリューションの鍵となるのは、調和解析のアイデアに基づく新しい射影技術である。
我々の結果は、連続空間 MDP における2つの人気と矛盾する視点のギャップを埋めるものである。
論文 参考訳(メタデータ) (2024-05-10T09:58:47Z) - A Combinatorial Approach to Robust PCA [18.740048806623037]
敵の汚職下でのガウスデータの回復問題について検討する。
ガウスノイズは未知の$k$-次元部分空間$U subseteq mathbbRd$と、各データポイントのランダムに選択された座標が敵の制御に該当すると仮定する。
我々の主な結果は、$ks2 = O(d)$のとき、期待して$tilde O(ks/d)$のほぼ最適エラーまですべてのデータポイントを復元する効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2023-11-28T01:49:51Z) - Efficiently Learning One-Hidden-Layer ReLU Networks via Schur
Polynomials [50.90125395570797]
正方形損失に関して、標準的なガウス分布の下での$k$ReLU活性化の線形結合をPAC学習する問題をmathbbRd$で検討する。
本研究の主な成果は,この学習課題に対して,サンプルおよび計算複雑性が$(dk/epsilon)O(k)$で,epsilon>0$が目標精度である。
論文 参考訳(メタデータ) (2023-07-24T14:37:22Z) - Differentially Private Exploration in Reinforcement Learning with Linear
Representation [102.17246636801649]
まず,線形混合MDP(Ayob et al., 2020)の設定(モデルベース設定)について検討し,共同・局所微分プライベート(DP)探索を統一的に分析するための枠組みを提供する。
我々はさらに、線形MDP(Jin et al., 2020)におけるプライバシー保護探索(つまりモデルフリー設定)について研究し、$widetildeO(sqrtK/epsilon)$ regret bound for $(epsilon,delta)を提供する。
論文 参考訳(メタデータ) (2021-12-02T19:59:50Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - Gradient-Based Empirical Risk Minimization using Local Polynomial
Regression [39.29885444997579]
この論文の主な目標は、勾配降下(GD)や勾配降下(SGD)といった異なるアルゴリズムを比較することである。
損失関数がデータのスムーズな場合、各反復でオラクルを学習し、GDとSGDの両方のオラクル複雑度に打ち勝つことができることを示す。
論文 参考訳(メタデータ) (2020-11-04T20:10:31Z) - Average-case Complexity of Teaching Convex Polytopes via Halfspace
Queries [55.28642461328172]
平均的なケースの教えの複雑さは$Theta(d)$であり、最悪のケースの教えの複雑さは$Theta(n)$とは対照的である。
我々の洞察は、$phi$-separable dichotomiesの平均ケースの複雑さに厳密な拘束力を確立することを可能にする。
論文 参考訳(メタデータ) (2020-06-25T19:59:24Z) - Private Learning of Halfspaces: Simplifying the Construction and
Reducing the Sample Complexity [63.29100726064574]
有限格子上の半空間に対して微分プライベート学習器を$mathbbRd$で$G$で、サンプル複雑性を$approx d2.5cdot 2log*|G|$で表す。
学習者のためのビルディングブロックは、線形実現可能性問題を解くために、微分プライベートな新しいアルゴリズムである。
論文 参考訳(メタデータ) (2020-04-16T16:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。