論文の概要: NeuGuard: Lightweight Neuron-Guided Defense against Membership Inference
Attacks
- arxiv url: http://arxiv.org/abs/2206.05565v1
- Date: Sat, 11 Jun 2022 17:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 15:06:02.224183
- Title: NeuGuard: Lightweight Neuron-Guided Defense against Membership Inference
Attacks
- Title(参考訳): ニューガード:軽度のニューロン誘導型防衛でメンバーシップ推論攻撃
- Authors: Nuo Xu, Binghui Wang, Ran Ran, Wujie Wen, Parv Venkitasubramaniam
- Abstract要約: 我々はNeuGuardという神経誘導型防御手法を提案する。
NeuGuardは、オブジェクトと出力と内ニューロンの活性化を共同で制御し、トレーニングセットとテストセットのモデル出力を、密分布を持つように誘導する。
結果として、NeuGuardは、ユーティリティとプライバシのトレードオフ、一般性、オーバーヘッドを大幅に改善することで、最先端の防御よりも優れています。
- 参考スコア(独自算出の注目度): 23.100019564323933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Membership inference attacks (MIAs) against machine learning models can lead
to serious privacy risks for the training dataset used in the model training.
In this paper, we propose a novel and effective Neuron-Guided Defense method
named NeuGuard against membership inference attacks (MIAs). We identify a key
weakness in existing defense mechanisms against MIAs wherein they cannot
simultaneously defend against two commonly used neural network based MIAs,
indicating that these two attacks should be separately evaluated to assure the
defense effectiveness. We propose NeuGuard, a new defense approach that jointly
controls the output and inner neurons' activation with the object to guide the
model output of training set and testing set to have close distributions.
NeuGuard consists of class-wise variance minimization targeting restricting the
final output neurons and layer-wise balanced output control aiming to constrain
the inner neurons in each layer. We evaluate NeuGuard and compare it with
state-of-the-art defenses against two neural network based MIAs, five strongest
metric based MIAs including the newly proposed label-only MIA on three
benchmark datasets. Results show that NeuGuard outperforms the state-of-the-art
defenses by offering much improved utility-privacy trade-off, generality, and
overhead.
- Abstract(参考訳): 機械学習モデルに対するメンバーシップ推論攻撃(mia)は、モデルトレーニングで使用されるトレーニングデータセットに対して深刻なプライバシーリスクを引き起こす可能性がある。
本稿では,ニューガード(NeuGuard)という新規で効果的な神経誘導防御手法を提案する。
2つのニューラルネットワークベースMIAに対して同時に防御できないMIAに対する既存の防御機構の重要な弱点を特定し、これらの2つの攻撃を個別に評価し、防御効果を保証すべきであることを示す。
訓練セットとテストセットのモデルの出力を誘導するために,ニューロンの出力と内部ニューロンの活性化をオブジェクトと共同で制御する新しい防御手法であるneuguardを提案する。
ニューガードは、最終的な出力ニューロンを制限することを目的としたクラスワイズ分散最小化と、各層の内部ニューロンを拘束することを目的としたレイヤーワイズバランスの出力制御からなる。
3つのベンチマークデータセットで新たに提案されたラベルのみのmiaを含む5つの強力なメトリックベースのmiasに対して、neuguardを評価し、最先端の防御と比較する。
結果として、NeuGuardは、ユーティリティとプライバシのトレードオフ、一般性、オーバーヘッドを大幅に改善することで、最先端の防御よりも優れています。
関連論文リスト
- CALoR: Towards Comprehensive Model Inversion Defense [43.2642796582236]
Model Inversion Attacks (MIAs)は、プライバシに敏感なトレーニングデータを、リリースされた機械学習モデルにエンコードされた知識から回復することを目的としている。
MIA分野の最近の進歩は、複数のシナリオにおける攻撃性能を大幅に向上させた。
信頼性適応と低ランク圧縮を統合した堅牢な防御機構を提案する。
論文 参考訳(メタデータ) (2024-10-08T08:44:01Z) - Perturbation-Invariant Adversarial Training for Neural Ranking Models:
Improving the Effectiveness-Robustness Trade-Off [107.35833747750446]
正統な文書に不可避な摂動を加えることで 敵の例を作れます
この脆弱性は信頼性に関する重大な懸念を生じさせ、NRMの展開を妨げている。
本研究では,NRMにおける有効・損耗トレードオフに関する理論的保証を確立する。
論文 参考訳(メタデータ) (2023-12-16T05:38:39Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Adversarial Attack and Defense in Deep Ranking [100.17641539999055]
本稿では,敵対的摂動によって選抜された候補者のランクを引き上げたり下げたりできる,ディープランキングシステムに対する2つの攻撃を提案する。
逆に、全ての攻撃に対するランキングモデルロバスト性を改善するために、反崩壊三重項防御法が提案されている。
MNIST, Fashion-MNIST, CUB200-2011, CARS196およびStanford Online Productsデータセットを用いて, 敵のランク付け攻撃と防御を評価した。
論文 参考訳(メタデータ) (2021-06-07T13:41:45Z) - Mitigating Gradient-based Adversarial Attacks via Denoising and
Compression [7.305019142196582]
深層ニューラルネットワークに対する勾配に基づく逆攻撃は深刻な脅威となる。
それらは、任意のネットワークのテストデータに不可避な摂動を追加することでデプロイできる。
デノイジングと寸法減少は、そのような攻撃に対抗するために調査された2つの異なる方法である。
論文 参考訳(メタデータ) (2021-04-03T22:57:01Z) - Adversarial robustness via stochastic regularization of neural
activation sensitivity [24.02105949163359]
両防衛目標を同時に扱う新しい防衛機構を提案する。
損失面の勾配を平坦化し、逆例を見つけるのが難しくなる。
さらに、ジャコビアン正則化を利用して、正しく分類された入力から決定を遠ざける。
論文 参考訳(メタデータ) (2020-09-23T19:31:55Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Stochastic Security: Adversarial Defense Using Long-Run Dynamics of
Energy-Based Models [82.03536496686763]
敵対的攻撃に対するディープ・ネットワークの脆弱性は、認識とセキュリティの両方の観点から、ディープ・ラーニングの中心的な問題である。
我々は,自然学習型分類器の保護に重点を置き,マルコフ・チェイン・モンテカルロ (MCMC) とエネルギーベースモデル (EBM) を併用して敵の浄化を行った。
本研究は,1)現実的な長期MCMCサンプルを用いたEMMの訓練方法の改善,2)防衛の理論的曖昧さを解消する期待・オフバー・トランスフォーメーション(EOT)ディフェンス,3)自然に訓練された分類器と競争的ディフェンスのための最先端の対人ディフェンス,である。
論文 参考訳(メタデータ) (2020-05-27T17:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。