論文の概要: Diagnostics for Deep Neural Networks with Automated Copy/Paste Attacks
- arxiv url: http://arxiv.org/abs/2211.10024v3
- Date: Fri, 5 May 2023 06:52:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:21:11.395097
- Title: Diagnostics for Deep Neural Networks with Automated Copy/Paste Attacks
- Title(参考訳): 自動コピー/ペースト攻撃によるディープニューラルネットワークの診断
- Authors: Stephen Casper, Kaivalya Hariharan, Dylan Hadfield-Menell
- Abstract要約: 本稿では、ディープニューラルネットワーク(DNN)によるスケーラブルな監視を支援することの課題について考察する。
本稿では,コピー・ペースト・アタックの完全自動検出方法であるSNAFUE(Natural Adversarial Features Using Embeddings)を提案する。
次に、SNAFUEを使ってImageNet分類器をレッドチーム化して、コピー/ペースト攻撃を再現し、説明しやすい何百もの脆弱性を見つけます。
- 参考スコア(独自算出の注目度): 5.773420590954527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper considers the problem of helping humans exercise scalable
oversight over deep neural networks (DNNs). Adversarial examples can be useful
by helping to reveal weaknesses in DNNs, but they can be difficult to interpret
or draw actionable conclusions from. Some previous works have proposed using
human-interpretable adversarial attacks including copy/paste attacks in which
one natural image pasted into another causes an unexpected misclassification.
We build on these with two contributions. First, we introduce Search for
Natural Adversarial Features Using Embeddings (SNAFUE) which offers a fully
automated method for finding copy/paste attacks. Second, we use SNAFUE to red
team an ImageNet classifier. We reproduce copy/paste attacks from previous
works and find hundreds of other easily-describable vulnerabilities, all
without a human in the loop. Code is available at
https://github.com/thestephencasper/snafue
- Abstract(参考訳): 本稿では,ディープニューラルネットワーク(DNN)のスケーラビリティに配慮した作業を支援する。
逆例は、DNNの弱点を明らかにするのに役立つが、行動可能な結論を解釈したり、引き出すことは困難である。
以前のいくつかの研究は、人間の解釈可能な敵の攻撃を用いており、例えば、ある自然画像が別の画像に貼り付けられたコピー/ペースト攻撃は、予期せぬ誤分類を引き起こす。
私たちはこれらを2つのコントリビューションで構築します。
まず,本研究では,組込み(snafue)を用いた自然敵の探索について紹介する。
次に、SNAFUEを使ってImageNet分類器をレッドチーム化する。
我々は、過去の作品からコピー/ペースト攻撃を再現し、他の何百もの簡単に記述できる脆弱性を見つけます。
コードはhttps://github.com/thestephencasper/snafueで入手できる。
関連論文リスト
- My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Trace and Detect Adversarial Attacks on CNNs using Feature Response Maps [0.3437656066916039]
畳み込みニューラルネットワーク(CNN)に対する敵対的攻撃
本研究では,攻撃防止のための新たな攻撃事例検出手法を提案する。
特徴応答における逆方向の摂動をトラッキングすることで、平均的な局所空間エントロピーを用いた自動検出が可能となる。
論文 参考訳(メタデータ) (2022-08-24T11:05:04Z) - A New Kind of Adversarial Example [47.64219291655723]
モデルが元の決定を維持しているようなイメージに十分な摂動が加えられる一方、人間は決定を強制すれば間違いを犯す可能性が高い。
提案した攻撃はNKEと呼ばれ、本質的にはばかげた画像に似ているが、進化アルゴリズムの代わりに勾配降下を用いるため、より効率的である。
論文 参考訳(メタデータ) (2022-08-04T03:45:44Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Deep Feature Space Trojan Attack of Neural Networks by Controlled
Detoxification [21.631699720855995]
トロイの木馬攻撃(Trojan attack)は、ディープニューラルネットワークに対する敵攻撃の一種である。
5つの特徴を持つ新しい深部特徴空間トロイの木馬攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-21T09:46:12Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Evaluating a Simple Retraining Strategy as a Defense Against Adversarial
Attacks [17.709146615433458]
我々は、KNNのような単純なアルゴリズムが、再トレーニングに必要な逆画像のラベルを決定するためにどのように使用できるかを示す。
CIFAR-10とTinyImageNetという2つの標準データセットで結果を示す。
論文 参考訳(メタデータ) (2020-07-20T07:49:33Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Advbox: a toolbox to generate adversarial examples that fool neural
networks [3.220531121670532]
AdvboxはPaddlePaddle、PyTorch、Caffe2、MxNet、Kerasでニューラルネットワークを騙すツールであり、機械学習モデルの堅牢性をベンチマークすることができる。
マシンラーニング・アズ・ア・サービスに対するブラックボックス攻撃と、Face Attack、Stealth Tシャツ、DeepFake Face Detectなどの攻撃シナリオをサポートする。
論文 参考訳(メタデータ) (2020-01-13T08:11:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。