論文の概要: Can Membership Inferencing be Refuted?
- arxiv url: http://arxiv.org/abs/2303.03648v2
- Date: Wed, 8 Mar 2023 03:54:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 16:32:13.382237
- Title: Can Membership Inferencing be Refuted?
- Title(参考訳): 会員会議は否定できるのか?
- Authors: Zhifeng Kong, Amrita Roy Chowdhury, Kamalika Chaudhuri
- Abstract要約: 本研究では,実際に会員推論攻撃の信頼性について検討する。
モデルオーナは,データポイント$x$のメンバシップ推論テストの結果に対して,検証の証明を構築することで,妥当に反証できることを示す。
本研究の結果は,実際に会員推論攻撃がもたらす影響を再評価するものである。
- 参考スコア(独自算出の注目度): 31.31060116447964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Membership inference (MI) attack is currently the most popular test for
measuring privacy leakage in machine learning models. Given a machine learning
model, a data point and some auxiliary information, the goal of an MI attack is
to determine whether the data point was used to train the model. In this work,
we study the reliability of membership inference attacks in practice.
Specifically, we show that a model owner can plausibly refute the result of a
membership inference test on a data point $x$ by constructing a proof of
repudiation that proves that the model was trained without $x$. We design
efficient algorithms to construct proofs of repudiation for all data points of
the training dataset. Our empirical evaluation demonstrates the practical
feasibility of our algorithm by constructing proofs of repudiation for popular
machine learning models on MNIST and CIFAR-10. Consequently, our results call
for a re-evaluation of the implications of membership inference attacks in
practice.
- Abstract(参考訳): メンバーシップ推論(MI)攻撃は、マシンラーニングモデルにおけるプライバシリークを測定するための最も一般的なテストである。
機械学習モデルとデータポイントといくつかの補助情報を与えると、mi攻撃の目的は、データポイントがモデルのトレーニングに使われたかどうかを決定することである。
本研究では,実際に会員推論攻撃の信頼性について検討する。
具体的には、モデル所有者がデータポイント$x$でメンバシップ推論テストの結果を、モデルが$x$なしでトレーニングされたことを証明した否認の証明を構築することで、正当な反論が可能であることを示す。
トレーニングデータセットのすべてのデータポイントに対する評価の証明を構築するための効率的なアルゴリズムを設計する。
MNIST と CIFAR-10 で一般的な機械学習モデルに対する検証結果を構築し,本アルゴリズムの有効性を実証した。
その結果,本研究の結果は,実際にメンバーシップ推論攻撃の影響を再評価することを求めている。
関連論文リスト
- Membership Inference Attacks Cannot Prove that a Model Was Trained On Your Data [27.18781946018255]
ウェブスケールのデータに基づいてトレーニングされた基礎モデルに対する最近の訴訟では、データ証明のトレーニングが重要な役割を担っている。
多くの先行研究は、メンバシップ推論攻撃を用いたトレーニングデータ証明のインスタンス化を示唆している。
本研究では, 特殊なカナリアデータに対するデータ抽出攻撃と会員推定が, 音響訓練データ証明の作成に有効であることを示す。
論文 参考訳(メタデータ) (2024-09-29T21:49:32Z) - Blind Baselines Beat Membership Inference Attacks for Foundation Models [24.010279957557252]
メンバーシップ推論(MI)攻撃は、データサンプルが機械学習モデルのトレーニングに使用されたかどうかを判断しようとする。
未知のWebデータに基づいてトレーニングされた基礎モデルに対して、MI攻撃は著作権のあるトレーニング材料の検出、テストセットの汚染の測定、あるいは監査マシンのアンラーニングに使用できる。
基礎モデルに対するMI攻撃の評価は, 異なる分布からメンバーや非メンバーをサンプリングするため, 欠陥があることが示されている。
論文 参考訳(メタデータ) (2024-06-23T19:40:11Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Verifiable and Provably Secure Machine Unlearning [37.353982787321385]
機械学習は、トレーニング後の機械学習モデルのトレーニングデータセットからポイントを取り除くことを目的としている。
本稿では,機械のアンラーニングシステムの保証を捉えるための,検証可能なアンラーニングの最初の暗号的定義を示す。
我々は、線形回帰、ロジスティック回帰、ニューラルネットワークの実現可能性を検証するために、3つの異なるアンラーニング手法のプロトコルを実装した。
論文 参考訳(メタデータ) (2022-10-17T14:19:52Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - Enhanced Membership Inference Attacks against Machine Learning Models [9.26208227402571]
メンバーシップ推論攻撃は、モデルがトレーニングセット内の個々のデータポイントについてリークする個人情報の定量化に使用される。
我々は,AUCスコアを高い精度で達成できる新たな攻撃アルゴリズムを導き,その性能に影響を及ぼすさまざまな要因を強調した。
我々のアルゴリズムは、モデルにおけるプライバシ損失の極めて正確な近似を捉え、機械学習モデルにおけるプライバシリスクの正確かつ詳細な推定を行うためのツールとして使用することができる。
論文 参考訳(メタデータ) (2021-11-18T13:31:22Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Modelling and Quantifying Membership Information Leakage in Machine
Learning [14.095523601311374]
我々は、ディープニューラルネットワークのような複雑なモデルが、メンバーシップ推論攻撃の影響を受けやすいことを示す。
本稿では,Gaussian $(epsilon,delta)$-differentially-private additive noiseを使用する場合,メンバシップ情報漏洩の量は$mathcalO(log1/2(delta-1)epsilon-1)$で減少することを示す。
論文 参考訳(メタデータ) (2020-01-29T00:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。