論文の概要: A Data Augmentation-based Defense Method Against Adversarial Attacks in
Neural Networks
- arxiv url: http://arxiv.org/abs/2007.15290v1
- Date: Thu, 30 Jul 2020 08:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 15:02:06.596373
- Title: A Data Augmentation-based Defense Method Against Adversarial Attacks in
Neural Networks
- Title(参考訳): ニューラルネットワークにおける敵攻撃に対するデータ拡張に基づく防御手法
- Authors: Yi Zeng, Han Qiu, Gerard Memmi, Meikang Qiu
- Abstract要約: そこで本研究では,実生活制約に適合した完全ホワイトボックス攻撃を効果的に無効化する軽量防衛手法を開発した。
我々のモデルは、50発のBPDAによる高度な適応攻撃に耐えることができ、攻撃成功率をほぼゼロに抑えながら、目標モデルが約80%の精度を維持するのに役立ちます。
- 参考スコア(独自算出の注目度): 7.943024117353317
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) in Computer Vision (CV) are well-known to be
vulnerable to Adversarial Examples (AEs), namely imperceptible perturbations
added maliciously to cause wrong classification results. Such variability has
been a potential risk for systems in real-life equipped DNNs as core
components. Numerous efforts have been put into research on how to protect DNN
models from being tackled by AEs. However, no previous work can efficiently
reduce the effects caused by novel adversarial attacks and be compatible with
real-life constraints at the same time. In this paper, we focus on developing a
lightweight defense method that can efficiently invalidate full whitebox
adversarial attacks with the compatibility of real-life constraints. From basic
affine transformations, we integrate three transformations with randomized
coefficients that fine-tuned respecting the amount of change to the defended
sample. Comparing to 4 state-of-art defense methods published in top-tier AI
conferences in the past two years, our method demonstrates outstanding
robustness and efficiency. It is worth highlighting that, our model can
withstand advanced adaptive attack, namely BPDA with 50 rounds, and still helps
the target model maintain an accuracy around 80 %, meanwhile constraining the
attack success rate to almost zero.
- Abstract(参考訳): コンピュータビジョン(cv)のディープニューラルネットワーク(dnn)は、悪意のある例(aes)、すなわち間違った分類結果を引き起こすために悪質に追加される不可避な摂動に対して脆弱であることがよく知られている。
このような変動性は、リアルタイム装備DNNをコアコンポーネントとするシステムにとって潜在的なリスクである。
AEによってDNNモデルが取り組まれることを防ぐ方法について、多くの研究がなされている。
しかし、新しい敵の攻撃による効果を効果的に減らすことはできず、同時に実生活の制約とも相容れない。
本稿では,実生活の制約と互換性のあるホワイトボックス攻撃を効果的に無効化できる軽量防衛手法の開発に着目する。
基本アフィン変換から、3つの変換をランダム化係数と統合し、保護されたサンプルへの変化量に応じて微調整する。
過去2年間のトップレベルのAIカンファレンスで発表された4つの最先端の防衛手法と比較して、我々の方法は優れた堅牢性と効率を示す。
我々のモデルは、50ラウンドのBPDAによる高度な適応攻撃に耐えることができ、攻撃成功率をほぼゼロに抑えながら、目標モデルが約80%の精度を維持するのに役立ちます。
関連論文リスト
- Constrained Adaptive Attack: Effective Adversarial Attack Against Deep Neural Networks for Tabular Data [12.641656743760874]
そこで本研究では,適応機構による既存の勾配攻撃の障害を克服する勾配攻撃を提案する。
また、CAPGD攻撃と最高の検索ベース攻撃であるMOEVAを組み合わせた効率的な回避攻撃であるCAAを設計する。
私たちの実証研究は、CAAが既存の攻撃を20以上の設定で17で上回っていることを実証しています。
論文 参考訳(メタデータ) (2024-06-02T15:26:52Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Practical No-box Adversarial Attacks with Training-free Hybrid Image
Transformation [123.33816363589506]
ノンボックス脅威モデルの下では, テキストbftraining-free adversarial perturbationの存在を示す。
低レベルの特徴を持つ高周波成分 (HFC) ドメインは, 主に周波数成分の操作によって画像を攻撃する。
我々の手法は、主流の転送ベースのブラックボックス攻撃と競合する。
論文 参考訳(メタデータ) (2022-03-09T09:51:00Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Combating Adversaries with Anti-Adversaries [118.70141983415445]
特に、我々の層は、逆の層とは反対の方向に入力摂動を生成します。
我々は,我々の階層と名目および頑健に訓練されたモデルを組み合わせることで,我々のアプローチの有効性を検証する。
我々の対向層は、クリーンな精度でコストを伴わずにモデルロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2021-03-26T09:36:59Z) - Mitigating the Impact of Adversarial Attacks in Very Deep Networks [10.555822166916705]
Deep Neural Network (DNN)モデルにはセキュリティに関する脆弱性がある。
データ中毒による摂動攻撃は、モデルに偽データを注入する複雑な敵対攻撃である。
そこで本研究では,攻撃に依存しない防御手法を提案する。
論文 参考訳(メタデータ) (2020-12-08T21:25:44Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。