論文の概要: Improving Robustness to Model Inversion Attacks via Sparse Coding Architectures
- arxiv url: http://arxiv.org/abs/2403.14772v2
- Date: Sat, 24 Aug 2024 18:29:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 23:56:35.824513
- Title: Improving Robustness to Model Inversion Attacks via Sparse Coding Architectures
- Title(参考訳): スパース符号化アーキテクチャによるモデル反転攻撃に対するロバスト性の改善
- Authors: Sayanton V. Dibbo, Adam Breuer, Juston Moore, Michael Teti,
- Abstract要約: 最近のモデル反転攻撃アルゴリズムでは、ニューラルネットワークのプライベートかつ潜在的に敏感なトレーニングデータを繰り返しクエリすることで、敵が再構築することができる。
我々は,このタイプの攻撃に対して優れたロバスト性を得るために,スパースコーディング層を利用する新しいネットワークアーキテクチャを開発した。
- 参考スコア(独自算出の注目度): 4.962316236417777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent model inversion attack algorithms permit adversaries to reconstruct a neural network's private and potentially sensitive training data by repeatedly querying the network. In this work, we develop a novel network architecture that leverages sparse-coding layers to obtain superior robustness to this class of attacks. Three decades of computer science research has studied sparse coding in the context of image denoising, object recognition, and adversarial misclassification settings, but to the best of our knowledge, its connection to state-of-the-art privacy vulnerabilities remains unstudied. In this work, we hypothesize that sparse coding architectures suggest an advantageous means to defend against model inversion attacks because they allow us to control the amount of irrelevant private information encoded by a network in a manner that is known to have little effect on classification accuracy. Specifically, compared to networks trained with a variety of state-of-the-art defenses, our sparse-coding architectures maintain comparable or higher classification accuracy while degrading state-of-the-art training data reconstructions by factors of 1.1 to 18.3 across a variety of reconstruction quality metrics (PSNR, SSIM, FID). This performance advantage holds across 5 datasets ranging from CelebA faces to medical images and CIFAR-10, and across various state-of-the-art SGD-based and GAN-based inversion attacks, including Plug-&-Play attacks. We provide a cluster-ready PyTorch codebase to promote research and standardize defense evaluations.
- Abstract(参考訳): 最近のモデル反転攻撃アルゴリズムでは、ニューラルネットワークのプライベートかつ潜在的に敏感なトレーニングデータを繰り返しクエリすることで、敵が再構築することができる。
本研究では,この攻撃に対してより優れたロバスト性を得るために,スパース符号化層を利用した新しいネットワークアーキテクチャを開発する。
30年にわたるコンピュータサイエンス研究は、画像の認識、オブジェクト認識、および敵対的誤分類設定という文脈でスパースコーディングを研究してきたが、私たちの知る限りでは、最先端のプライバシー脆弱性への関連性はまだ研究されていない。
本研究は,ネットワークによって符号化された無関係なプライベート情報の量を,分類精度にはほとんど影響しない方法で制御できるため,スパース符号化アーキテクチャがモデル反転攻撃を防御する有利な手段であることを仮定する。
具体的には、さまざまな最先端防衛で訓練されたネットワークと比較して、スパースコーディングアーキテクチャは、様々な再構築品質指標(PSNR、SSIM、FID)で1.1~18.3の要因で、最先端のトレーニングデータ再構成を劣化させながら、同等またはそれ以上の分類精度を維持している。
このパフォーマンス上のアドバンテージは、CelebAの顔から医療画像、CIFAR-10まで、5つのデータセットにまたがる。
我々はクラスタ対応のPyTorchコードベースを提供し、研究を促進し、防衛評価を標準化する。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Defense against adversarial attacks on deep convolutional neural
networks through nonlocal denoising [1.3484794751207887]
異なる輝度値を持つ非局所復調法は、逆例を生成するために用いられてきた。
摂動下では、この手法はMNISTデータセットの9.3%の絶対精度の向上をもたらした。
我々は,移動学習が逆機械学習に不利であることを示してきた。
論文 参考訳(メタデータ) (2022-06-25T16:11:25Z) - From Environmental Sound Representation to Robustness of 2D CNN Models
Against Adversarial Attacks [82.21746840893658]
本稿では, 各種環境音響表現(スペクトログラム)が, 被害者残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
DWTスペクトログラムでトレーニングしたResNet-18モデルでは高い認識精度が得られたが、このモデルに対する攻撃は敵にとって比較的コストがかかる。
論文 参考訳(メタデータ) (2022-04-14T15:14:08Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Evaluation of Neural Networks Defenses and Attacks using NDCG and
Reciprocal Rank Metrics [6.6389732792316]
分類タスクにおけるニューラルネットワークの出力に対する攻撃効果、防衛効果の回復効果を特に測定するために設計された2つの指標を示す。
正規化された累積ゲインと、情報検索文献で使用される相互ランクの指標に着想を得て、ニューラルネットワーク予測を結果のランクリストとして扱う。
一般的な分類指標と比較すると,提案指標は優れた情報的・独特性を示す。
論文 参考訳(メタデータ) (2022-01-10T12:54:45Z) - Improving Neural Network Robustness through Neighborhood Preserving
Layers [0.751016548830037]
このような層を組み込むことができ、効率的にトレーニングできる新しいニューラルネットワークアーキテクチャを実証する。
我々は、設計したネットワークアーキテクチャが、最先端の勾配に基づく攻撃に対してより堅牢であることを実証的に示す。
論文 参考訳(メタデータ) (2021-01-28T01:26:35Z) - How Robust are Randomized Smoothing based Defenses to Data Poisoning? [66.80663779176979]
我々は、トレーニングデータの品質の重要性を強調する堅牢な機械学習モデルに対して、これまで認識されていなかった脅威を提示します。
本稿では,二段階最適化に基づく新たなデータ中毒攻撃法を提案し,ロバストな分類器のロバスト性を保証する。
我々の攻撃は、被害者が最先端のロバストな訓練方法を用いて、ゼロからモデルを訓練しても効果的である。
論文 参考訳(メタデータ) (2020-12-02T15:30:21Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Deep Learning based Covert Attack Identification for Industrial Control
Systems [5.299113288020827]
我々は、スマートグリッドに対する秘密攻撃と呼ばれるサイバー攻撃を検出し、診断し、ローカライズするために使用できるデータ駆動フレームワークを開発した。
このフレームワークは、オートエンコーダ、リカレントニューラルネットワーク(RNN)とLong-Short-Term-Memory層、Deep Neural Network(DNN)を組み合わせたハイブリッド設計である。
論文 参考訳(メタデータ) (2020-09-25T17:48:43Z) - Understanding and Diagnosing Vulnerability under Adversarial Attacks [62.661498155101654]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,潜在変数の分類に使用される特徴を説明するために,新しい解釈可能性手法であるInterpretGANを提案する。
また、各層がもたらす脆弱性を定量化する最初の診断方法も設計する。
論文 参考訳(メタデータ) (2020-07-17T01:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。