論文の概要: Enhancing Transformation-based Defenses against Adversarial Examples
with First-Order Perturbations
- arxiv url: http://arxiv.org/abs/2103.04565v1
- Date: Mon, 8 Mar 2021 06:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:54:36.809970
- Title: Enhancing Transformation-based Defenses against Adversarial Examples
with First-Order Perturbations
- Title(参考訳): 1次摂動による逆転型防御の強化
- Authors: Haimin Zhang, Min Xu
- Abstract要約: 研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これはニューラルネットワークベースの人工知能システムに潜在的な脅威をもたらす。
敵の摂動を逆行して敵の例に抵抗する方法を提案する。
- 参考スコア(独自算出の注目度): 7.075802972628797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Studies show that neural networks are susceptible to adversarial attacks.
This exposes a potential threat to neural network-based artificial intelligence
systems. We observe that the probability of the correct result outputted by the
neural network increases by applying small perturbations generated for
non-predicted class labels to adversarial examples. Based on this observation,
we propose a method of counteracting adversarial perturbations to resist
adversarial examples. In our method, we randomly select a number of class
labels and generate small perturbations for these selected labels. The
generated perturbations are added together and then clamped onto a specified
space. The obtained perturbation is finally added to the adversarial example to
counteract the adversarial perturbation contained in the example. The proposed
method is applied at inference time and does not require retraining or
finetuning the model. We validate the proposed method on CIFAR-10 and
CIFAR-100. The experimental results demonstrate that our method effectively
improves the defense performance of the baseline methods, especially against
strong adversarial examples generated using more iterations.
- Abstract(参考訳): 研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これはニューラルネットワークベースの人工知能システムに潜在的な脅威をもたらす。
ニューラルネットワークによって出力される正しい結果の確率は、非予測クラスラベルで生成された小さな摂動を逆の例に適用することで増加する。
そこで本研究では, 逆転の例に反して逆転の摂動に反する手法を提案する。
本手法では,複数のクラスラベルをランダムに選択し,これらの選択ラベルの小さな摂動を生成する。
生成された摂動は一緒に加えられ、指定された空間にクランプされる。
得られた摂動は、最終的に対向例に追加され、この例に含まれる対向的摂動に対処する。
提案手法は推定時に適用され,モデルの再トレーニングや微調整は不要である。
提案手法をCIFAR-10およびCIFAR-100で検証した。
実験の結果,本手法はベースラインメソッドの防御性能を効果的に向上すること,特に多くのイテレーションで生成された強力な敵例に対して有効であることがわかった。
関連論文リスト
- Purify Unlearnable Examples via Rate-Constrained Variational Autoencoders [101.42201747763178]
未学習例(UE)は、正しくラベル付けされたトレーニング例に微妙な修正を加えることで、テストエラーの最大化を目指している。
我々の研究は、効率的な事前学習浄化法を構築するための、新しいゆがみ機構を提供する。
論文 参考訳(メタデータ) (2024-05-02T16:49:25Z) - Wasserstein distributional robustness of neural networks [9.79503506460041]
ディープニューラルネットワークは敵攻撃(AA)に弱いことが知られている
画像認識タスクでは、元の小さな摂動によって画像が誤分類される可能性がある。
本稿では,Wassersteinの分散ロバスト最適化(DRO)技術を用いて問題を再検討し,新しいコントリビューションを得た。
論文 参考訳(メタデータ) (2023-06-16T13:41:24Z) - Hessian-Free Second-Order Adversarial Examples for Adversarial Learning [6.835470949075655]
厳密に設計された敵の例による敵の学習は、そのような攻撃に対して最も効果的な方法の1つである。
既存のほとんどの逆例生成法は1次勾配に基づいており、モデルのロバスト性を改善することはほとんどできない。
そこで我々は,この問題をKrylov部分空間の最適化に変換することで,計算複雑性を著しく低減し,学習手順を高速化する近似法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:29:27Z) - Block-Sparse Adversarial Attack to Fool Transformer-Based Text
Classifiers [49.50163349643615]
本稿では,変圧器を用いたテキスト分類器に対して,勾配に基づく逆攻撃を提案する。
実験結果から, 文の意味を抑えながら, GPT-2の精度を5%以下に抑えることができた。
論文 参考訳(メタデータ) (2022-03-11T14:37:41Z) - Efficient and Robust Classification for Sparse Attacks [34.48667992227529]
我々は、画像認識、自然言語処理、マルウェア検出の領域において効果的な攻撃として示されてきた$ell$-normで束縛された摂動を考える。
我々は,「トランケーション」と「アドリアル・トレーニング」を組み合わせた新しい防衛手法を提案する。
得られた洞察に触発され、これらのコンポーネントをニューラルネットワーク分類器に拡張する。
論文 参考訳(メタデータ) (2022-01-23T21:18:17Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - GradDiv: Adversarial Robustness of Randomized Neural Networks via
Gradient Diversity Regularization [3.9157051137215504]
プロキシ勾配を用いた敵攻撃がランダム化ニューラルネットワークに与える影響について検討する。
より散らばった場合,プロキシ勾配は効果が低いことを示す。
ニューラルネットワークを構築するための勾配の濃度を最小化するグラディエント・ダイバーシティ(GradDiv)正則化を提案する。
論文 参考訳(メタデータ) (2021-07-06T06:57:40Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Class-Aware Domain Adaptation for Improving Adversarial Robustness [27.24720754239852]
学習データに敵の例を注入することにより,ネットワークを訓練するための敵の訓練が提案されている。
そこで本研究では,対人防御のための新しいクラスアウェアドメイン適応法を提案する。
論文 参考訳(メタデータ) (2020-05-10T03:45:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。