論文の概要: RANDOM MASK: Towards Robust Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2007.14249v1
- Date: Mon, 27 Jul 2020 00:10:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:54:23.902061
- Title: RANDOM MASK: Towards Robust Convolutional Neural Networks
- Title(参考訳): RANDOM MASK:ロバストな畳み込みニューラルネットワークを目指して
- Authors: Tiange Luo, Tianle Cai, Mengxiao Zhang, Siyu Chen, Liwei Wang
- Abstract要約: 既存のCNN構造を変更する手法であるランダムマスクを導入する。
我々は,ランダムマスクによるブラックボックス攻撃に対する最先端の性能を示す。
驚くべきことに、これらの敵対的な例は、しばしば人間も「愚か」である。
- 参考スコア(独自算出の注目度): 27.313892304842387
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness of neural networks has recently been highlighted by the
adversarial examples, i.e., inputs added with well-designed perturbations which
are imperceptible to humans but can cause the network to give incorrect
outputs. In this paper, we design a new CNN architecture that by itself has
good robustness. We introduce a simple but powerful technique, Random Mask, to
modify existing CNN structures. We show that CNN with Random Mask achieves
state-of-the-art performance against black-box adversarial attacks without
applying any adversarial training. We next investigate the adversarial examples
which 'fool' a CNN with Random Mask. Surprisingly, we find that these
adversarial examples often 'fool' humans as well. This raises fundamental
questions on how to define adversarial examples and robustness properly.
- Abstract(参考訳): ニューラルネットワークのロバスト性は、最近、敵対的な例、すなわち、よく設計された摂動を伴う入力によって強調されている。
本稿では,新しいcnnアーキテクチャの設計について述べる。
我々は,既存のCNN構造を改良するために,シンプルだが強力なRandom Maskを導入する。
ランダムマスクを用いたcnnは,ブラックボックス攻撃に対して,攻撃訓練を施すことなく最先端のパフォーマンスを実現する。
次に,Random Mask を用いた CNN を 'fol' する逆例について検討する。
驚くべきことに、これらの敵対的な例は、しばしば人間も「愚か」である。
これは、逆の例とロバストネスを適切に定義する方法に関する根本的な疑問を提起する。
関連論文リスト
- Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps [0.3437656066916039]
畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃
本研究では,攻撃防止のための新たな攻撃事例検出手法を提案する。
特徴応答における逆方向の摂動をトラッキングすることで、平均的な局所空間エントロピーを用いた自動検出が可能となる。
論文 参考訳(メタデータ) (2022-08-24T11:05:04Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Shape Defense Against Adversarial Attacks [47.64219291655723]
人間は物体を認識するために形状情報に大きく依存している。逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
論文 参考訳(メタデータ) (2020-08-31T03:23:59Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Advbox: a toolbox to generate adversarial examples that fool neural
networks [3.220531121670532]
AdvboxはPaddlePaddle、PyTorch、Caffe2、MxNet、Kerasでニューラルネットワークを騙すツールであり、機械学習モデルの堅牢性をベンチマークすることができる。
マシンラーニング・アズ・ア・サービスに対するブラックボックス攻撃と、Face Attack、Stealth Tシャツ、DeepFake Face Detectなどの攻撃シナリオをサポートする。
論文 参考訳(メタデータ) (2020-01-13T08:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。