論文の概要: Advocating for Multiple Defense Strategies against Adversarial Examples
- arxiv url: http://arxiv.org/abs/2012.02632v1
- Date: Fri, 4 Dec 2020 14:42:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 20:36:23.929775
- Title: Advocating for Multiple Defense Strategies against Adversarial Examples
- Title(参考訳): 敵対的事例に対する多重防衛戦略の提唱
- Authors: Alexandre Araujo, Laurent Meunier, Rafael Pinot, Benjamin Negrevergne
- Abstract要約: ニューラルネットワークを$ell_infty$敵の例から保護するために設計された防御機構が、性能の低下を実証的に観察されている。
本稿では,この観測を検証した幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
- 参考スコア(独自算出の注目度): 66.90877224665168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been empirically observed that defense mechanisms designed to protect
neural networks against $\ell_\infty$ adversarial examples offer poor
performance against $\ell_2$ adversarial examples and vice versa. In this paper
we conduct a geometrical analysis that validates this observation. Then, we
provide a number of empirical insights to illustrate the effect of this
phenomenon in practice. Then, we review some of the existing defense mechanism
that attempts to defend against multiple attacks by mixing defense strategies.
Thanks to our numerical experiments, we discuss the relevance of this method
and state open questions for the adversarial examples community.
- Abstract(参考訳): ニューラルネットワークを$\ell_\infty$敵の例から保護するために設計された防御機構が、$\ell_2$敵の例に対して性能が劣っていることを実証的に観察されている。
本稿では,この観察を検証する幾何学的解析を行う。
そこで本研究では,この現象の実際的影響を説明するための実証的な知見を多数提示する。
次に,防衛戦略を混合することにより,複数の攻撃に対して防御しようとする既存の防御機構について検討する。
本稿の数値実験により,本手法の妥当性を議論し,実例コミュニティに対してオープン質問を提示する。
関連論文リスト
- Detecting Adversarial Examples [24.585379549997743]
本稿では,Deep Neural Networks の層出力を解析して,敵のサンプルを検出する手法を提案する。
提案手法はDNNアーキテクチャと互換性が高く,画像,ビデオ,オーディオなど,さまざまな領域にまたがって適用可能である。
論文 参考訳(メタデータ) (2024-10-22T21:42:59Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Searching for an Effective Defender: Benchmarking Defense against
Adversarial Word Substitution [83.84968082791444]
ディープニューラルネットワークは、意図的に構築された敵の例に対して脆弱である。
ニューラルNLPモデルに対する敵対的単語置換攻撃を防御する様々な方法が提案されている。
論文 参考訳(メタデータ) (2021-08-29T08:11:36Z) - Internal Wasserstein Distance for Adversarial Attack and Defense [40.27647699862274]
本研究では,サンプルと対比例の画像類似度を測定するための内部Wasserstein距離(IWD)を提案する。
原試料中のパッチの分布を捉えた新しい攻撃手法を開発した。
我々はまた,未知の敵の例から守るためのロバストなモデルを学ぶための新しい防御手法も構築する。
論文 参考訳(メタデータ) (2021-03-13T02:08:02Z) - Learning Defense Transformers for Counterattacking Adversarial Examples [43.59730044883175]
ディープニューラルネットワーク(DNN)は、小さな摂動を伴う逆例に対して脆弱である。
既存の防御メソッドは、特定のタイプの敵の例に焦点を当てており、現実世界のアプリケーションでは防御に失敗する可能性がある。
敵対例を元のクリーンな分布に戻すことで、敵対例に対して防御できるかどうかという新たな視点から、敵対例を研究します。
論文 参考訳(メタデータ) (2021-03-13T02:03:53Z) - Harnessing adversarial examples with a surprisingly simple defense [47.64219291655723]
敵の例に対抗して、非常に簡単な方法を紹介します。
基本的な考え方は、テスト時にReLU関数の傾きを上げることである。
MNISTとCIFAR-10データセットによる実験では、提案された防御の有効性が示されている。
論文 参考訳(メタデータ) (2020-04-26T03:09:42Z) - Defense against adversarial attacks on spoofing countermeasures of ASV [95.87555881176529]
本稿では,ASVスプーフィング対策モデルの脆弱性を軽減するために,パッシブ・ディフェンス法,空間平滑化法,プロアクティブ・ディフェンス・トレーニング法を提案する。
実験結果から, これらの2つの防御手法は, 対向する対向的例に対して, 対向的対策モデルを偽装するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2020-03-06T08:08:54Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。