論文の概要: Auditing Privacy Mechanisms via Label Inference Attacks
- arxiv url: http://arxiv.org/abs/2406.02797v1
- Date: Tue, 4 Jun 2024 21:48:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 22:37:23.698537
- Title: Auditing Privacy Mechanisms via Label Inference Attacks
- Title(参考訳): ラベル推論攻撃によるプライバシメカニズムの監査
- Authors: Róbert István Busa-Fekete, Travis Dick, Claudio Gentile, Andrés Muñoz Medina, Adam Smith, Marika Swanberg,
- Abstract要約: 再構成の利点尺度は、ラベルなし例の真のラベルを推測する攻撃者の能力の増加を定量化する。
このような監査方法として, 1 つの加法と 1 つの乗法を考える。
異なるプライベートなスキームが、より多くのリコンストラクションアプローチのプライバシーとユーティリティのトレードオフを支配しているか、一致していることがわかった。
- 参考スコア(独自算出の注目度): 14.778661225844692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose reconstruction advantage measures to audit label privatization mechanisms. A reconstruction advantage measure quantifies the increase in an attacker's ability to infer the true label of an unlabeled example when provided with a private version of the labels in a dataset (e.g., aggregate of labels from different users or noisy labels output by randomized response), compared to an attacker that only observes the feature vectors, but may have prior knowledge of the correlation between features and labels. We consider two such auditing measures: one additive, and one multiplicative. These incorporate previous approaches taken in the literature on empirical auditing and differential privacy. The measures allow us to place a variety of proposed privatization schemes -- some differentially private, some not -- on the same footing. We analyze these measures theoretically under a distributional model which encapsulates reasonable adversarial settings. We also quantify their behavior empirically on real and simulated prediction tasks. Across a range of experimental settings, we find that differentially private schemes dominate or match the privacy-utility tradeoff of more heuristic approaches.
- Abstract(参考訳): 本稿では,ラベルの民営化メカニズムを監査するための再建的優位性策を提案する。
再構成優位度尺度は、データセット内のラベルのプライベートバージョン(例えば、異なるユーザからのラベルの集合またはランダムな応答によって出力されるノイズのあるラベルの集合)が提供されると、攻撃者が未ラベルの真のラベルを推測する能力の増大を、特徴ベクトルのみを観察する攻撃者と比較して定量化するが、特徴とラベルの相関について事前の知識を持つ可能性がある。
このような監査方法として, 1 つの加法と 1 つの乗法を考える。
これらは、経験的監査と差分プライバシーに関する文献で取られた以前のアプローチを取り入れている。
この措置により、我々は様々な民営化スキーム(一部は個人的、一部はそうでない)を同じ足場に置くことができる。
理論的には, 合理的な対角的設定をカプセル化した分布モデルを用いて, これらの測度を解析する。
また,実際の予測タスクとシミュレーション予測タスクにおいて,その振る舞いを実証的に定量化する。
さまざまな実験的な設定において、よりヒューリスティックなアプローチによるプライバシーとユーティリティのトレードオフは、差分にプライベートなスキームが支配的または一致していることがわかった。
関連論文リスト
- Optimal Unbiased Randomizers for Regression with Label Differential
Privacy [61.63619647307816]
ラベル差分プライバシ(DP)の制約の下で回帰モデルをトレーニングするためのラベルランダム化器の新たなファミリーを提案する。
これらのランダム化器は、いくつかのデータセット上で最先端のプライバシユーティリティトレードオフを実現することを実証する。
論文 参考訳(メタデータ) (2023-12-09T19:58:34Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Probabilistic Test-Time Generalization by Variational Neighbor-Labeling [62.158807685159736]
本稿では、ドメインの一般化を試み、モデルが未確認のターゲットドメインにデプロイされる前に、ソースドメインにのみトレーニングされる。
ソーストレーニングされたモデルをテスト時にターゲットドメインに一般化するための、ターゲットサンプルの擬似ラベル化の確率。
より堅牢な擬似ラベルを生成するために、近隣のターゲットサンプルの情報を含む変分隣接ラベル。
論文 参考訳(メタデータ) (2023-07-08T18:58:08Z) - Simulation-based, Finite-sample Inference for Privatized Data [14.218697973204065]
本稿では,統計的に有効な信頼区間と仮説テストを生成するためのシミュレーションベースの"repro sample"手法を提案する。
本手法は様々な個人推論問題に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-09T15:19:31Z) - Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics [26.99521354120141]
要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
論文 参考訳(メタデータ) (2023-01-11T19:16:13Z) - Exploiting Completeness and Uncertainty of Pseudo Labels for Weakly
Supervised Video Anomaly Detection [149.23913018423022]
弱教師付きビデオ異常検出は、ビデオレベルのラベルのみを用いて、ビデオ内の異常事象を特定することを目的としている。
2段階の自己学習法は擬似ラベルの自己生成によって著しく改善されている。
本稿では,自己学習のための完全性と不確実性を利用した強化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-08T05:53:53Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - MatchGAN: A Self-Supervised Semi-Supervised Conditional Generative
Adversarial Network [51.84251358009803]
本稿では,条件付き生成逆数ネットワーク(GAN)に対する,半教師付き環境下での自己教師型学習手法を提案する。
利用可能な数少ないラベル付きサンプルのラベル空間から無作為なラベルをサンプリングして拡張を行う。
本手法は,ベースラインのトレーニングに使用したラベル付きサンプルの20%に過ぎません。
論文 参考訳(メタデータ) (2020-06-11T17:14:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。