論文の概要: Advbox: a toolbox to generate adversarial examples that fool neural
networks
- arxiv url: http://arxiv.org/abs/2001.05574v5
- Date: Wed, 26 Aug 2020 23:19:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 22:57:42.303408
- Title: Advbox: a toolbox to generate adversarial examples that fool neural
networks
- Title(参考訳): Advbox: ニューラルネットワークを騙す敵の例を生成するツールボックス
- Authors: Dou Goodman, Hao Xin, Wang Yang, Wu Yuesheng, Xiong Junfeng, and Zhang
Huan
- Abstract要約: AdvboxはPaddlePaddle、PyTorch、Caffe2、MxNet、Kerasでニューラルネットワークを騙すツールであり、機械学習モデルの堅牢性をベンチマークすることができる。
マシンラーニング・アズ・ア・サービスに対するブラックボックス攻撃と、Face Attack、Stealth Tシャツ、DeepFake Face Detectなどの攻撃シナリオをサポートする。
- 参考スコア(独自算出の注目度): 3.220531121670532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, neural networks have been extensively deployed for computer
vision tasks, particularly visual classification problems, where new algorithms
reported to achieve or even surpass the human performance. Recent studies have
shown that they are all vulnerable to the attack of adversarial examples. Small
and often imperceptible perturbations to the input images are sufficient to
fool the most powerful neural networks. \emph{Advbox} is a toolbox to generate
adversarial examples that fool neural networks in PaddlePaddle, PyTorch,
Caffe2, MxNet, Keras, TensorFlow and it can benchmark the robustness of machine
learning models. Compared to previous work, our platform supports black box
attacks on Machine-Learning-as-a-service, as well as more attack scenarios,
such as Face Recognition Attack, Stealth T-shirt, and DeepFake Face Detect. The
code is licensed under the Apache 2.0 and is openly available at
https://github.com/advboxes/AdvBox. Advbox now supports Python 3.
- Abstract(参考訳): 近年、ニューラルネットワークはコンピュータビジョンタスク、特に視覚分類問題のために広範囲にデプロイされ、新しいアルゴリズムが人間のパフォーマンスを達成または超えるように報告されている。
近年の研究では、これらは全て敵の攻撃に弱いことが示されている。
入力画像に対する小さく、しばしば知覚できない摂動は、最も強力なニューラルネットワークを騙すのに十分である。
\emph{Advbox}は、PaddlePaddle、PyTorch、Caffe2、MxNet、Keras、TensorFlowのニューラルネットワークを騙して、機械学習モデルの堅牢性を評価するためのツールボックスである。
これまでの研究と比較すると、当社のプラットフォームは、Machine-Learning-as-a-serviceに対するブラックボックス攻撃や、顔認識攻撃、ステルスTシャツ、DeepFake Face Detectなどの攻撃シナリオもサポートしています。
コードはApache 2.0でライセンスされており、https://github.com/advboxes/AdvBox.comで公開されている。
AdvboxはPython 3をサポートする。
関連論文リスト
- DeepBaR: Fault Backdoor Attack on Deep Neural Network Layers [0.0]
私たちは、ニューラルネットワークにバックドアを埋め込む新しいアプローチであるDeepBaRを紹介します。
私たちは3つの一般的な畳み込みニューラルネットワークアーキテクチャを攻撃し、DeepBaR攻撃が最大98.30%の成功率を示す。
論文 参考訳(メタデータ) (2024-07-30T22:14:47Z) - BackdoorBox: A Python Toolbox for Backdoor Learning [67.53987387581222]
このPythonツールボックスは、代表的で高度なバックドア攻撃と防御を実装している。
研究者や開発者は、ベンチマークやローカルデータセットで、さまざまなメソッドを簡単に実装し、比較することができる。
論文 参考訳(メタデータ) (2023-02-01T09:45:42Z) - Controlled Caption Generation for Images Through Adversarial Attacks [85.66266989600572]
画像特徴抽出には畳み込みニューラルネットワーク(CNN)、キャプション生成にはリカレントニューラルネットワーク(RNN)が使用される。
特に、その後の再帰的ネットワークに供給される視覚エンコーダの隠蔽層に対する攻撃について検討する。
本稿では、CNNの内部表現を模倣したニューラルネットワークキャプションの逆例を作成するためのGANベースのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-07T07:22:41Z) - Black-box adversarial attacks using Evolution Strategies [3.093890460224435]
画像分類タスクに対するブラックボックス対向攻撃の生成について検討する。
その結果、攻撃されたニューラルネットワークは、ほとんどの場合、比較中のすべてのアルゴリズムによって簡単に騙されることがわかった。
一部のブラックボックス最適化アルゴリズムは、攻撃成功率と効率の両面で、よりハードな設定で優れている。
論文 参考訳(メタデータ) (2021-04-30T15:33:07Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - A Neuro-Inspired Autoencoding Defense Against Adversarial Perturbations [11.334887948796611]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
現在の最も効果的な防御策は、敵に摂動された例を使ってネットワークを訓練することである。
本稿では,神経に誘発される防御機構について検討する。
論文 参考訳(メタデータ) (2020-11-21T21:03:08Z) - Autoencoder Watchdog Outlier Detection for Classifiers [0.0]
子猫と子犬を区別するために訓練された一般的なニューラルネットワークは、クムク人の絵を子猫または子犬として分類する。
MNIST画像を用いた畳み込みニューラルネットワークと畳み込みオートエンコーダウォッチドッグを用いて予備的な結果を示す。
論文 参考訳(メタデータ) (2020-10-24T03:16:33Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - RANDOM MASK: Towards Robust Convolutional Neural Networks [27.313892304842387]
既存のCNN構造を変更する手法であるランダムマスクを導入する。
我々は,ランダムマスクによるブラックボックス攻撃に対する最先端の性能を示す。
驚くべきことに、これらの敵対的な例は、しばしば人間も「愚か」である。
論文 参考訳(メタデータ) (2020-07-27T00:10:28Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。