論文の概要: On Primes, Log-Loss Scores and (No) Privacy
- arxiv url: http://arxiv.org/abs/2009.08559v1
- Date: Thu, 17 Sep 2020 23:35:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 08:51:07.962320
- Title: On Primes, Log-Loss Scores and (No) Privacy
- Title(参考訳): primes,log-lossスコアと(no)プライバシー
- Authors: Abhinav Aggarwal, Zekun Xu, Oluwaseyi Feyisetan, Nathanael Teissier
- Abstract要約: 本稿では,この追加情報により,任意のデータポイントのメンバシップを1つのクエリで完全精度で推測できることを示す。
我々のアプローチは、攻撃モデルのトレーニングや、敵とのサイド知識へのアクセスを妨げます。
- 参考スコア(独自算出の注目度): 8.679020335206753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Membership Inference Attacks exploit the vulnerabilities of exposing models
trained on customer data to queries by an adversary. In a recently proposed
implementation of an auditing tool for measuring privacy leakage from sensitive
datasets, more refined aggregates like the Log-Loss scores are exposed for
simulating inference attacks as well as to assess the total privacy leakage
based on the adversary's predictions. In this paper, we prove that this
additional information enables the adversary to infer the membership of any
number of datapoints with full accuracy in a single query, causing complete
membership privacy breach. Our approach obviates any attack model training or
access to side knowledge with the adversary. Moreover, our algorithms are
agnostic to the model under attack and hence, enable perfect membership
inference even for models that do not memorize or overfit. In particular, our
observations provide insight into the extent of information leakage from
statistical aggregates and how they can be exploited.
- Abstract(参考訳): メンバーシップ推論攻撃は、顧客データでトレーニングされたモデルを敵のクエリに暴露する脆弱性を悪用する。
最近提案された機密データセットからのプライバシー漏洩を測定する監査ツールの実装では、推測攻撃をシミュレートするためにログロススコアのようなより洗練された集約を公開し、敵の予測に基づいてプライバシー漏洩全体の評価を行う。
本稿では,この追加情報により,単一のクエリにおいて,任意のデータポイントのメンバシップを完全精度で推測することができ,完全なメンバシッププライバシ侵害を引き起こすことを実証する。
我々のアプローチは、攻撃モデルのトレーニングや、敵とのサイド知識へのアクセスを妨げます。
さらに,本アルゴリズムは攻撃対象のモデルに依存せず,記憶や過度に適合しないモデルにおいても完全なメンバシップ推論を可能にする。
特に,統計集約からの情報漏洩の程度と,その利用方法についての知見を提供する。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - LTU Attacker for Membership Inference [23.266710407178078]
我々は,会員推定攻撃に対する予測モデルを守るという課題に対処する。
ユーティリティとプライバシの両方を、アタッカーと評価器を含む外部装置で評価する。
特定の条件下では、単純な攻撃戦略によって、LTU攻撃者でさえ、プライバシー損失の低い境界を達成できることを証明します。
論文 参考訳(メタデータ) (2022-02-04T18:06:21Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Label-Only Membership Inference Attacks [67.46072950620247]
ラベルのみのメンバシップ推論攻撃を導入する。
我々の攻撃は、摂動下でのモデルが予測するラベルの堅牢性を評価する。
差分プライバシーと(強い)L2正規化を備えたトレーニングモデルは、唯一知られている防衛戦略である。
論文 参考訳(メタデータ) (2020-07-28T15:44:31Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。