論文の概要: The Sample Complexity of Membership Inference and Privacy Auditing
- arxiv url: http://arxiv.org/abs/2508.19458v1
- Date: Tue, 26 Aug 2025 22:19:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.436673
- Title: The Sample Complexity of Membership Inference and Privacy Auditing
- Title(参考訳): 会員推測とプライバシ監査の複雑さ
- Authors: Mahdi Haghifam, Adam Smith, Jonathan Ullman,
- Abstract要約: 会員推論攻撃は、学習アルゴリズムと対象個人とを出力し、この個人がトレーニングデータのメンバーであるか、同じ分布から独立したサンプルであるかを判定する。
メンバシップ推論攻撃が成功した場合、通常、攻撃者はトレーニングデータがサンプリングされた分布についてある程度の知識を必要とする。
この設定では、$Omega(n + n2 rho2)$サンプルは、完全に情報を得た攻撃者と競合する攻撃を実行するために必要であることを示す。
- 参考スコア(独自算出の注目度): 7.865646654746587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A membership-inference attack gets the output of a learning algorithm, and a target individual, and tries to determine whether this individual is a member of the training data or an independent sample from the same distribution. A successful membership-inference attack typically requires the attacker to have some knowledge about the distribution that the training data was sampled from, and this knowledge is often captured through a set of independent reference samples from that distribution. In this work we study how much information the attacker needs for membership inference by investigating the sample complexity-the minimum number of reference samples required-for a successful attack. We study this question in the fundamental setting of Gaussian mean estimation where the learning algorithm is given $n$ samples from a Gaussian distribution $\mathcal{N}(\mu,\Sigma)$ in $d$ dimensions, and tries to estimate $\hat\mu$ up to some error $\mathbb{E}[\|\hat \mu - \mu\|^2_{\Sigma}]\leq \rho^2 d$. Our result shows that for membership inference in this setting, $\Omega(n + n^2 \rho^2)$ samples can be necessary to carry out any attack that competes with a fully informed attacker. Our result is the first to show that the attacker sometimes needs many more samples than the training algorithm uses to train the model. This result has significant implications for practice, as all attacks used in practice have a restricted form that uses $O(n)$ samples and cannot benefit from $\omega(n)$ samples. Thus, these attacks may be underestimating the possibility of membership inference, and better attacks may be possible when information about the distribution is easy to obtain.
- Abstract(参考訳): 会員推論攻撃は、学習アルゴリズムと対象個人とを出力し、この個人がトレーニングデータのメンバーであるか、同じ分布から独立したサンプルであるかを判定する。
メンバシップ推論攻撃が成功した場合、攻撃者はトレーニングデータがサンプリングされた分布についてある程度の知識を必要とされ、この知識は、その分布から独立した参照サンプルのセットを通じて取得されることが多い。
本研究では,攻撃者がどの程度の情報をメンバシップ推論に必要としているかを,サンプルの複雑さ(攻撃成功に必要な参照サンプルの最小数)を調べて検討する。
ガウス平均推定の基本的な設定において、学習アルゴリズムがガウス分布$\mathcal{N}(\mu,\Sigma)$ in $d$ dimensions から$n$のサンプルを与え、ある誤差$\mathbb{E}[\|\hat \mu - \mu\|^2_{\Sigma}]\leq \rho^2 d$ まで$\hat\mu$を推定しようとする。
この設定では、$\Omega(n + n^2 \rho^2)$サンプルは、完全に情報を得た攻撃者と競合する攻撃を行うのに必要である。
私たちの結果は、トレーニングアルゴリズムがモデルをトレーニングするために使用するものよりも、攻撃者が時として多くのサンプルを必要とすることを示す最初のものです。
実際に使用されるすべての攻撃は、$O(n)$サンプルを使用していて、$\omega(n)$サンプルから利益を得ることができない制限フォームを持っているため、この結果が実践に重大な意味を持つ。
したがって、これらの攻撃はメンバーシップ推論の可能性を過小評価している可能性があり、その分布に関する情報が容易に得られれば、より良い攻撃が可能になるかもしれない。
関連論文リスト
- Differentially Private Multi-Sampling from Distributions [4.292685318253575]
本研究は,DPエフェッスルサンプリングのサンプル複雑性,すなわち,このタスクの実行に必要なサンプルの最小数について検討する。
エンフルティサンプリングの2つの変種を定義し、そこでは、プライベートに$m>1$サンプルを近似することを目的としている。
論文 参考訳(メタデータ) (2024-12-13T19:14:05Z) - Testing with Non-identically Distributed Samples [20.74768558932617]
本研究では,サンプルが独立に分布するが同一に分布しない設定に対して,サブ線形サンプル特性試験と推定が適用範囲について検討する。
それぞれのディストリビューションから$Theta(k/varepsilon2)$サンプルをサンプリングしても、$textbfp_mathrmavg$は、テレビ距離で$textbfp_mathrmavg$をエラー$varepsilon$内で学習するのに十分である。
論文 参考訳(メタデータ) (2023-11-19T01:25:50Z) - Sample Complexity of Robust Learning against Evasion Attacks [3.8888996044605855]
本研究では, 学習理論の観点から, サンプルの複雑さを考慮し, 逆向きの頑健な学習の実現可能性について検討する。
均一分布下では, 連接関係をしっかり学習する相手の予算への指数的依存は避けられないままである。
問合せ半径が敵の予算に等しければ、分布自由な環境で堅牢な経験的リスクアルゴリズムを開発できることを示す。
論文 参考訳(メタデータ) (2023-08-23T10:51:33Z) - Stochastic Approximation Approaches to Group Distributionally Robust Optimization and Beyond [89.72693227960274]
本稿では,グループ分散ロバスト最適化 (GDRO) を,$m$以上の異なる分布をうまく処理するモデルを学習する目的で検討する。
各ラウンドのサンプル数を$m$から1に抑えるため、GDROを2人でプレイするゲームとして、一方のプレイヤーが実行し、他方のプレイヤーが非公開のマルチアームバンディットのオンラインアルゴリズムを実行する。
第2のシナリオでは、最大リスクではなく、平均的最上位k$リスクを最適化し、分散の影響を軽減することを提案する。
論文 参考訳(メタデータ) (2023-02-18T09:24:15Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms [93.44378960676897]
トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
本稿では,MI攻撃を装着した相手のテキスト・アドバンテージのバウンダリを導出し,広く利用されているガウス機構の厳密性を示す。
論文 参考訳(メタデータ) (2022-04-12T22:36:56Z) - On the Statistical Complexity of Sample Amplification [26.78883878113411]
我々は、$P$から引き出された$n+m$i.d.サンプルと区別できない、より大きな$n+m$i.d.サンプルを生成可能であることを示す。
本手法は指数関数族を含む多種多様な分布に適用し,サンプル増幅と分布学習の厳密な関係を確立する。
論文 参考訳(メタデータ) (2022-01-12T05:45:27Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z) - A Provably Efficient Sample Collection Strategy for Reinforcement
Learning [123.69175280309226]
オンライン強化学習(RL)における課題の1つは、エージェントがその振る舞いを最適化するために、環境の探索とサンプルの活用をトレードオフする必要があることである。
1) 生成モデル(環境のスパースシミュレータなど)にアクセス可能な状態のサンプル数を規定する「対象別」アルゴリズム,2) 所定のサンプルをできるだけ早く生成する「対象別」サンプル収集。
論文 参考訳(メタデータ) (2020-07-13T15:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。