論文の概要: Exploiting vulnerabilities of deep neural networks for privacy
protection
- arxiv url: http://arxiv.org/abs/2007.09766v1
- Date: Sun, 19 Jul 2020 20:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 00:35:42.128462
- Title: Exploiting vulnerabilities of deep neural networks for privacy
protection
- Title(参考訳): プライバシー保護のためのディープニューラルネットワークの脆弱性の爆発
- Authors: Ricardo Sanchez-Matilla, Chau Yi Li, Ali Shahin Shamsabadi, Riccardo
Mazzon, Andrea Cavallaro
- Abstract要約: 画像に副次的摂動を加えることで、望ましくない推論からコンテンツを保護することができる。
本報告では,視覚的コンテンツを未確認の分類者や既知の防御者から保護するために特別に設計された敵攻撃について述べる。
そこで我々は,Places365-Standardデータセットのプライベートクラスにおけるターゲット設定と未ターゲット設定の両方において,提案した攻撃を検証する。
- 参考スコア(独自算出の注目度): 41.94594666541757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial perturbations can be added to images to protect their content
from unwanted inferences. These perturbations may, however, be ineffective
against classifiers that were not {seen} during the generation of the
perturbation, or against defenses {based on re-quantization, median filtering
or JPEG compression. To address these limitations, we present an adversarial
attack {that is} specifically designed to protect visual content against {
unseen} classifiers and known defenses. We craft perturbations using an
iterative process that is based on the Fast Gradient Signed Method and {that}
randomly selects a classifier and a defense, at each iteration}. This
randomization prevents an undesirable overfitting to a specific classifier or
defense. We validate the proposed attack in both targeted and untargeted
settings on the private classes of the Places365-Standard dataset. Using
ResNet18, ResNet50, AlexNet and DenseNet161 {as classifiers}, the performance
of the proposed attack exceeds that of eleven state-of-the-art attacks. The
implementation is available at https://github.com/smartcameras/RP-FGSM/.
- Abstract(参考訳): 画像に逆の摂動を加えることで、不要な推論からコンテンツを保護することができる。
しかし、これらの摂動は摂動発生時に {seen} ではなかった分類器や、再量子化、中央値フィルタリング、jpeg圧縮に基づく防御に対して効果がない可能性がある。
これらの制限に対処するため、視覚的コンテンツを保護するために設計された対逆攻撃 { That is} を {unseen} 分類器や既知の防御装置に対して提示する。
我々は,Fast Gradient Signed Methodをベースとした反復的プロセスを用いて摂動を発生させ,各反復で分類器と防御器をランダムに選択する。
このランダム化は、特定の分類器や防御に好ましくないオーバーフィットを防止する。
我々は、places365標準データセットのプライベートクラスのターゲット設定と非ターゲット設定の両方で、提案された攻撃を検証する。
ResNet18、ResNet50、AlexNet、DenseNet161 {as classifiers} を使用すると、提案された攻撃のパフォーマンスは11の最先端攻撃を上回る。
実装はhttps://github.com/smartcameras/RP-FGSM/で公開されている。
関連論文リスト
- Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Detect and Defense Against Adversarial Examples in Deep Learning using
Natural Scene Statistics and Adaptive Denoising [12.378017309516965]
本稿では,DNN を敵のサンプルから守るためのフレームワークを提案する。
この検出器は、自然の景観統計を利用してAEを検出することを目的としている。
提案手法は最先端の防御技術より優れている。
論文 参考訳(メタデータ) (2021-07-12T23:45:44Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Double Targeted Universal Adversarial Perturbations [83.60161052867534]
本稿では, インスタンス別画像依存摂動と汎用的普遍摂動のギャップを埋めるために, 二重目標普遍摂動(DT-UAP)を導入する。
提案したDTAアルゴリズムの幅広いデータセットに対する有効性を示すとともに,物理攻撃の可能性を示す。
論文 参考訳(メタデータ) (2020-10-07T09:08:51Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Ensemble Noise Simulation to Handle Uncertainty about Gradient-based
Adversarial Attacks [5.4572790062292125]
ニューラルネットワークに対する勾配に基づく敵攻撃は、攻撃アルゴリズムが勾配に依存する方法を変えることで、様々な方法で作成することができる。
最近の研究は、攻撃者の行動に不確実性がない場合に分類器を守ることに重点を置いている。
このギャップを、様々な分類器の勾配に基づく様々な攻撃アルゴリズムを用いて、攻撃者のうるさい摂動をシミュレートすることで埋める。
提案したアンサンブル学習防御法を用いて,攻撃後の精度を大幅に改善した。
論文 参考訳(メタデータ) (2020-01-26T17:12:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。