論文の概要: Revisiting Membership Inference Under Realistic Assumptions
- arxiv url: http://arxiv.org/abs/2005.10881v5
- Date: Wed, 13 Jan 2021 20:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 23:13:43.979182
- Title: Revisiting Membership Inference Under Realistic Assumptions
- Title(参考訳): 現実的前提下における会員推定の再検討
- Authors: Bargav Jayaraman, Lingxiao Wang, Katherine Knipmeyer, Quanquan Gu,
David Evans
- Abstract要約: 従来研究でよく用いられていた仮定のいくつかが緩和された環境での会員推定について検討する。
この設定は、研究者が通常考慮するバランスのとれた事前設定よりも現実的である。
我々は、トレーニングセットメンバーに対応する入力が損失関数の局所最小値に近いという直感に基づく新しい推論攻撃を開発する。
- 参考スコア(独自算出の注目度): 87.13552321332988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study membership inference in settings where some of the assumptions
typically used in previous research are relaxed. First, we consider skewed
priors, to cover cases such as when only a small fraction of the candidate pool
targeted by the adversary are actually members and develop a PPV-based metric
suitable for this setting. This setting is more realistic than the balanced
prior setting typically considered by researchers. Second, we consider
adversaries that select inference thresholds according to their attack goals
and develop a threshold selection procedure that improves inference attacks.
Since previous inference attacks fail in imbalanced prior setting, we develop a
new inference attack based on the intuition that inputs corresponding to
training set members will be near a local minimum in the loss function, and
show that an attack that combines this with thresholds on the per-instance loss
can achieve high PPV even in settings where other attacks appear to be
ineffective. Code for our experiments can be found here:
https://github.com/bargavj/EvaluatingDPML.
- Abstract(参考訳): 従来研究でよく用いられていた仮定のいくつかが緩和された環境での会員推定について検討する。
まず, 相手を対象とする候補プールのごく一部のみが実際にメンバーであるような場合を対象とし, この設定に適したppvベースのメトリクスを開発する。
この設定は、研究者が通常考慮するバランスのとれた事前設定よりも現実的である。
第2に,攻撃目標に応じて推論しきい値を選択する敵を検討し,推論攻撃を改善するしきい値選択手順を開発する。
従来の推論攻撃は事前設定が不均衡であるため、トレーニングセットメンバーに対応する入力が損失関数の局所最小値に近いという直観に基づく新たな推論攻撃を開発し、これと入力毎損失のしきい値を組み合わせた攻撃が、他の攻撃が有効でないと思われる設定でも高いppvを達成可能であることを示す。
実験のコードは、https://github.com/bargavj/evaluatingdpml。
関連論文リスト
- Low-Cost High-Power Membership Inference Attacks [17.128537906121355]
メンバシップ推論攻撃は、機械学習モデルのトレーニングに特定のデータポイントを使用したかどうかを検出することを目的としている。
近年の強力な攻撃は計算コストが高く、様々な条件下では不整合性があり、実際のプライバシーリスク評価には信頼性が低い。
我々は,計算オーバーヘッドを最小限に抑えながら,人口データとモデルのトレーニングデータとを正確に区別する,新しい,効率的で堅牢なメンバシップ推論攻撃(RMIA)を設計する。
論文 参考訳(メタデータ) (2023-12-06T03:18:49Z) - Membership inference attack with relative decision boundary distance [9.764492069791991]
メンバシップ推論攻撃は、マシンラーニングにおける最も一般的なプライバシ攻撃の1つだ。
ラベルのみの設定において,ミューティクラス適応型メンバシップ推論攻撃と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T02:29:58Z) - Adversarial Attack Based on Prediction-Correction [8.467466998915018]
ディープニューラルネットワーク(DNN)は、元の例に小さな摂動を加えることで得られる敵の例に対して脆弱である。
本稿では,新たな予測補正(PC)に基づく対角攻撃を提案する。
提案したPCベースの攻撃では、予測された例を最初に生成するために既存の攻撃を選択し、予測された例と現在の例を組み合わせて追加の摂動を決定する。
論文 参考訳(メタデータ) (2023-06-02T03:11:32Z) - Implicit Poisoning Attacks in Two-Agent Reinforcement Learning:
Adversarial Policies for Training-Time Attacks [21.97069271045167]
標的毒攻撃では、攻撃者はエージェントと環境の相互作用を操作して、ターゲットポリシーと呼ばれる利害政策を採用するように強制する。
本研究では,攻撃者がエージェントの有効環境を暗黙的に毒殺する2エージェント環境での標的毒殺攻撃について,仲間の方針を変更して検討した。
最適な攻撃を設計するための最適化フレームワークを開発し、攻撃のコストは、ピアエージェントが想定するデフォルトポリシーからどの程度逸脱するかを測定する。
論文 参考訳(メタデータ) (2023-02-27T14:52:15Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Debiasing Learning for Membership Inference Attacks Against Recommender
Systems [79.48353547307887]
学習されたレコメンデータシステムは、トレーニングデータに関する情報を不注意に漏洩させ、プライバシー侵害につながる可能性がある。
我々は,推薦者システムによるプライバシー上の脅威を,会員推定のレンズを通して調査する。
本稿では,4つの主要コンポーネントを持つリコメンダシステム(DL-MIA)フレームワークに対する,メンバシップ推論攻撃に対するバイアス学習を提案する。
論文 参考訳(メタデータ) (2022-06-24T17:57:34Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Membership Inference Attacks From First Principles [24.10746844866869]
メンバシップ推論攻撃では、トレーニングされた機械学習モデルをクエリして、モデルのトレーニングデータセットに特定のサンプルが含まれているかどうかを予測することが可能になる。
これらの攻撃は現在、平均ケースの"精度"メトリクスを使用して評価されており、攻撃がトレーニングセットの任意のメンバを確実に識別できるかどうかを特徴付けることができない。
攻撃は偽陽性率の低い偽陽性率で計算することで評価されるべきであり、このような評価を行った場合、ほとんどの事前攻撃は不十分である。
我々の攻撃は偽陽性率の低いところで10倍強力であり、既存の指標に対する以前の攻撃を厳密に支配している。
論文 参考訳(メタデータ) (2021-12-07T08:47:00Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。