論文の概要: How Much Does Each Datapoint Leak Your Privacy? Quantifying the
Per-datum Membership Leakage
- arxiv url: http://arxiv.org/abs/2402.10065v1
- Date: Thu, 15 Feb 2024 16:30:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 14:44:45.257651
- Title: How Much Does Each Datapoint Leak Your Privacy? Quantifying the
Per-datum Membership Leakage
- Title(参考訳): それぞれのデータポイントがあなたのプライバシをリークする金額は?
per-datumメンバーシップリークの定量化
- Authors: Achraf Azize, Debabrota Basu
- Abstract要約: 本研究では,攻撃者がアルゴリズムの入力データセットに固定目標ダタムが含まれているかどうかを推測し,プライバシーを侵害することを目的とした,ダタム単位のメンバシップ推論攻撃(MIA)について検討する。
本研究では,実験平均値のダラム当たりの漏洩量を定量化し,目標ダラムとデータ生成分布とのマハラノビス距離に依存することを示す。
本実験は, ダム当たりの漏洩に対する漏洩スコア, サブサンプリング比, ノイズスケールの影響を理論的に検証した。
- 参考スコア(独自算出の注目度): 13.097161185372153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the per-datum Membership Inference Attacks (MIAs), where an attacker
aims to infer whether a fixed target datum has been included in the input
dataset of an algorithm and thus, violates privacy. First, we define the
membership leakage of a datum as the advantage of the optimal adversary
targeting to identify it. Then, we quantify the per-datum membership leakage
for the empirical mean, and show that it depends on the Mahalanobis distance
between the target datum and the data-generating distribution. We further
assess the effect of two privacy defences, i.e. adding Gaussian noise and
sub-sampling. We quantify exactly how both of them decrease the per-datum
membership leakage. Our analysis builds on a novel proof technique that
combines an Edgeworth expansion of the likelihood ratio test and a
Lindeberg-Feller central limit theorem. Our analysis connects the existing
likelihood ratio and scalar product attacks, and also justifies different
canary selection strategies used in the privacy auditing literature. Finally,
our experiments demonstrate the impacts of the leakage score, the sub-sampling
ratio and the noise scale on the per-datum membership leakage as indicated by
the theory.
- Abstract(参考訳): 本研究では,攻撃者がアルゴリズムの入力データセットに固定目標ダタムが含まれているかどうかを推測し,プライバシーを侵害することを目的とした,ダタム単位のメンバシップ推論攻撃(MIA)について検討する。
まず、datumのメンバシップリークを、最適な敵ターゲティングの利点として定義し、それを識別する。
次に,実験的な平均値に対するdatumあたりのメンバシップリークを定量化し,対象のdatumとデータ生成分布との間のマハラノビス距離に依存することを示す。
さらに,2つのプライバシー保護,すなわちガウスノイズとサブサンプリングの効果についても検討する。
両者がダンタム単位のメンバシップリークを減らす方法を正確に定量化します。
本解析は,確率比検定のエッジワース展開とリンデベルグ・フェラー中心極限定理を組み合わせた新しい証明手法を基礎としている。
当社の分析では,既存度比とスカラー製品攻撃を結びつけ,プライバシー監査文献で使用するカナリア選択戦略の正当化も行っている。
最後に, この理論が示すように, 漏洩スコア, サブサンプリング比, ノイズスケールがダム当たりの漏洩に与える影響を実証した。
関連論文リスト
- Data Lineage Inference: Uncovering Privacy Vulnerabilities of Dataset Pruning [31.888075470799908]
余剰集合内のデータがモデルトレーニングの前にのみ使用される場合でも、攻撃によってプルーニングフェーズのメンバシップ状態が検出可能であることを示す。
我々は、Data-Centric Membership Inferenceと呼ばれる新しいタスクを導入し、Data Lineage Inferenceというデータ中心のプライバシ推論パラダイムを提案する。
異なるプライバシリークのレベルが異なり、同じプルーニング手法でも異なるプライバシリスクを異なるプルーニング率で提示できることがわかった。
論文 参考訳(メタデータ) (2024-11-24T11:46:59Z) - Bayes-Nash Generative Privacy Protection Against Membership Inference Attacks [24.330984323956173]
本稿では,データ共有機構出力のプライバシ保護のためのゲームモデルを提案する。
本稿では,ベイズ・ナッシュ生成プライバシ(BNGP)とベイズ生成プライバシ(BGP)のリスクについて紹介する。
本手法は要約統計の共有に応用され、MIAは集約データからでも個人を識別できる。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - Membership inference attack with relative decision boundary distance [9.764492069791991]
メンバシップ推論攻撃は、マシンラーニングにおける最も一般的なプライバシ攻撃の1つだ。
ラベルのみの設定において,ミューティクラス適応型メンバシップ推論攻撃と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T02:29:58Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics [26.99521354120141]
要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
論文 参考訳(メタデータ) (2023-01-11T19:16:13Z) - Optimal Membership Inference Bounds for Adaptive Composition of Sampled
Gaussian Mechanisms [93.44378960676897]
トレーニングされたモデルとデータサンプルが与えられた場合、メンバシップ推論(MI)アタックは、サンプルがモデルのトレーニングセットにあるかどうかを予測する。
MI攻撃に対する一般的な対策は、モデルトレーニング中に差分プライバシー(DP)を利用して個々の事例の存在を隠蔽することである。
本稿では,MI攻撃を装着した相手のテキスト・アドバンテージのバウンダリを導出し,広く利用されているガウス機構の厳密性を示す。
論文 参考訳(メタデータ) (2022-04-12T22:36:56Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - On the Practicality of Differential Privacy in Federated Learning by
Tuning Iteration Times [51.61278695776151]
フェデレートラーニング(FL)は、分散クライアント間で機械学習モデルを協調的にトレーニングする際のプライバシ保護でよく知られている。
最近の研究では、naive flは勾配リーク攻撃の影響を受けやすいことが指摘されている。
ディファレンシャルプライバシ(dp)は、勾配漏洩攻撃を防御するための有望な対策として現れる。
論文 参考訳(メタデータ) (2021-01-11T19:43:12Z) - Sparse Feature Selection Makes Batch Reinforcement Learning More Sample
Efficient [62.24615324523435]
本稿では,スパース線形関数近似を用いた高次元バッチ強化学習(RL)の統計的解析を行う。
候補となる機能が多数存在する場合,提案手法がバッチRLをより効率的にサンプリングできるという事実に光を当てる。
論文 参考訳(メタデータ) (2020-11-08T16:48:02Z) - On Primes, Log-Loss Scores and (No) Privacy [8.679020335206753]
本稿では,この追加情報により,任意のデータポイントのメンバシップを1つのクエリで完全精度で推測できることを示す。
我々のアプローチは、攻撃モデルのトレーニングや、敵とのサイド知識へのアクセスを妨げます。
論文 参考訳(メタデータ) (2020-09-17T23:35:12Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。