論文の概要: Evaluating a Simple Retraining Strategy as a Defense Against Adversarial
Attacks
- arxiv url: http://arxiv.org/abs/2007.09916v1
- Date: Mon, 20 Jul 2020 07:49:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 13:48:53.849817
- Title: Evaluating a Simple Retraining Strategy as a Defense Against Adversarial
Attacks
- Title(参考訳): 敵攻撃に対する防御策としての簡易訓練戦略の評価
- Authors: Nupur Thakur, Yuzhen Ding, Baoxin Li
- Abstract要約: 我々は、KNNのような単純なアルゴリズムが、再トレーニングに必要な逆画像のラベルを決定するためにどのように使用できるかを示す。
CIFAR-10とTinyImageNetという2つの標準データセットで結果を示す。
- 参考スコア(独自算出の注目度): 17.709146615433458
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Though deep neural networks (DNNs) have shown superiority over other
techniques in major fields like computer vision, natural language processing,
robotics, recently, it has been proven that they are vulnerable to adversarial
attacks. The addition of a simple, small and almost invisible perturbation to
the original input image can be used to fool DNNs into making wrong decisions.
With more attack algorithms being designed, a need for defending the neural
networks from such attacks arises. Retraining the network with adversarial
images is one of the simplest techniques. In this paper, we evaluate the
effectiveness of such a retraining strategy in defending against adversarial
attacks. We also show how simple algorithms like KNN can be used to determine
the labels of the adversarial images needed for retraining. We present the
results on two standard datasets namely, CIFAR-10 and TinyImageNet.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、コンピュータビジョン、自然言語処理、ロボット工学といった主要分野の他の技術よりも優れているが、最近は敵の攻撃に弱いことが証明されている。
元の入力画像にシンプルで小さく、ほとんど見えない摂動を加えることで、DNNを騙して間違った判断を下すことができる。
より多くの攻撃アルゴリズムが設計されると、そのような攻撃からニューラルネットワークを守る必要性が生じる。
敵画像によるネットワークのリトレーニングは最も簡単な手法の1つである。
本稿では,このような再訓練戦略が敵攻撃に対する防御に有効であることを示す。
また、KNNのような単純なアルゴリズムを用いて、再トレーニングに必要な逆画像のラベルを決定する方法を示す。
CIFAR-10とTinyImageNetという2つの標準データセットで結果を示す。
関連論文リスト
- Robust and Efficient Interference Neural Networks for Defending Against
Adversarial Attacks in ImageNet [0.0]
本稿では,新たな背景画像と対応するラベルを適用して,干渉ニューラルネットワークを構築する。
PGD攻撃による最先端の結果と比較すると、より小さなコンピューティングリソースで防御効果が向上する。
論文 参考訳(メタデータ) (2023-09-03T14:20:58Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - KATANA: Simple Post-Training Robustness Using Test Time Augmentations [49.28906786793494]
このような攻撃に対する先導的な防御は、DNNが敵の攻撃に対して堅牢であるように訓練される技術である敵の訓練である。
そこで本稿では,既存の事前学習型DNNを重みを変更せずに堅牢化する,シンプルで使いやすいKATANA手法を提案する。
我々の戦略は、自然画像の分類に最小限の妥協を伴い、様々な攻撃に対する最先端の敵対的堅牢性を達成する。
論文 参考訳(メタデータ) (2021-09-16T19:16:00Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - A Neuro-Inspired Autoencoding Defense Against Adversarial Perturbations [11.334887948796611]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
現在の最も効果的な防御策は、敵に摂動された例を使ってネットワークを訓練することである。
本稿では,神経に誘発される防御機構について検討する。
論文 参考訳(メタデータ) (2020-11-21T21:03:08Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Progressive Defense Against Adversarial Attacks for Deep Learning as a
Service in Internet of Things [9.753864027359521]
一部のディープニューラルネットワーク(DNN)は、比較的小さいが逆方向の摂動を入力に追加することで容易に誤認することができる。
本稿では, 対人攻撃に対するプログレッシブ・ディフェンス(PDAAA)と呼ばれる防衛戦略を提案し, 対人画素変異を効果的かつ効果的に除去する。
その結果、モデルトレーニングのコストを平均50%削減しながら、最先端技術よりも優れています。
論文 参考訳(メタデータ) (2020-10-15T06:40:53Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。