論文の概要: Accuracy of TextFooler black box adversarial attacks on 01 loss sign
activation neural network ensemble
- arxiv url: http://arxiv.org/abs/2402.07347v1
- Date: Mon, 12 Feb 2024 00:36:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 16:08:47.832123
- Title: Accuracy of TextFooler black box adversarial attacks on 01 loss sign
activation neural network ensemble
- Title(参考訳): 01ロスサイン活性化ニューラルネットワークアンサンブルにおけるtextfooler black box adversarial attackの精度
- Authors: Yunzhe Xue and Usman Roshan
- Abstract要約: 近年の研究では、画像分類敵攻撃に対する01損失符号活性化ニューラルネットワークの防御効果が示されている。
01ロスサインアクティベーションニューラルネットワークは、人気のあるブラックボックステキスト対逆攻撃プログラムであるTextFoolerを騙すことが難しいのか?
01ロスサインアクティベーションネットワークは,Sigmoid アクティベーションのクロスエントロピーやバイナリニューラルネットワークと比較して,TextFoolerによる攻撃がはるかに困難であることがわかった。
- 参考スコア(独自算出の注目度): 5.439020425819001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work has shown the defense of 01 loss sign activation neural networks
against image classification adversarial attacks. A public challenge to attack
the models on CIFAR10 dataset remains undefeated. We ask the following question
in this study: are 01 loss sign activation neural networks hard to deceive with
a popular black box text adversarial attack program called TextFooler? We study
this question on four popular text classification datasets: IMDB reviews, Yelp
reviews, MR sentiment classification, and AG news classification. We find that
our 01 loss sign activation network is much harder to attack with TextFooler
compared to sigmoid activation cross entropy and binary neural networks. We
also study a 01 loss sign activation convolutional neural network with a novel
global pooling step specific to sign activation networks. With this new
variation we see a significant gain in adversarial accuracy rendering
TextFooler practically useless against it. We make our code freely available at
\url{https://github.com/zero-one-loss/wordcnn01} and
\url{https://github.com/xyzacademic/mlp01example}. Our work here suggests that
01 loss sign activation networks could be further developed to create fool
proof models against text adversarial attacks.
- Abstract(参考訳): 近年の研究では、画像分類敵攻撃に対する01損失符号活性化ニューラルネットワークの防御効果が示されている。
CIFAR10データセットでモデルを攻撃するための公開の課題は、まだ未解決のままである。
01 損失符号アクティベーションニューラルネットワークは、textfoolerと呼ばれる人気のあるブラックボックステキスト敵攻撃プログラムを欺くのが難しいのか?
本稿では,IMDBレビュー,Yelpレビュー,MR感情分類,AGニュース分類の4つの人気テキスト分類データセットについて検討する。
01ロスサインアクティベーションネットワークは,Sigmoid アクティベーションのクロスエントロピーやバイナリニューラルネットワークと比較して,TextFoolerによる攻撃がはるかに難しいことがわかった。
また,新たなグローバルプーリングステップを用いた01個の損失符号活性化畳み込みニューラルネットワークについても検討した。
この新たなバリエーションによって、TextFoolerがそれに対して事実上役に立たないという敵の精度が大幅に向上する。
コードは \url{https://github.com/zero-one-loss/wordcnn01} と \url{https://github.com/xyzacademic/mlp01example} で自由に利用できる。
ここでの研究は、テキスト敵攻撃に対する愚かな証明モデルを作成するために、01ロスサインアクティベーションネットワークをさらに発展させることを示唆している。
関連論文リスト
- OVLA: Neural Network Ownership Verification using Latent Watermarks [7.661766773170363]
本稿では,潜伏した透かしに基づくニューラルネットワークのオーナシップ検証のための新しい手法を提案する。
提案手法は,バックドア検出,バックドア除去,サロゲートモデル攻撃に対する強力な防御効果を示す。
論文 参考訳(メタデータ) (2023-06-15T17:45:03Z) - Trap and Replace: Defending Backdoor Attacks by Trapping Them into an
Easy-to-Replace Subnetwork [105.0735256031911]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本研究は,バックドアの有害な影響を除去しやすくする,新たなバックドア防衛戦略を提案する。
我々は10種類のバックドア攻撃に対して本手法を評価した。
論文 参考訳(メタデータ) (2022-10-12T17:24:01Z) - Constrained Gradient Descent: A Powerful and Principled Evasion Attack
Against Neural Networks [19.443306494201334]
我々は,攻撃者の目的の直感に従って,攻撃対象のホワイトボックスを攻撃対象とするいくつかのイノベーションを紹介した。
まず,ターゲット攻撃の目的を明確に把握する新たな損失関数を提案する。
第2に,誤分類対象と$L_infty$距離制限の両方を捉えた損失関数のさらなる改良版を用いた新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2021-12-28T17:36:58Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - A Partial Break of the Honeypots Defense to Catch Adversarial Attacks [57.572998144258705]
検出正の正の率を0%、検出AUCを0.02に下げることで、この防御のベースラインバージョンを破る。
さらなる研究を支援するため、攻撃プロセスの2.5時間のキーストローク・バイ・キーストロークスクリーンをhttps://nicholas.carlini.com/code/ccs_honeypot_breakで公開しています。
論文 参考訳(メタデータ) (2020-09-23T07:36:37Z) - Defending against substitute model black box adversarial attacks with
the 01 loss [0.0]
代用モデルブラックボックス攻撃に対する防御として,01損失線形と01損失二重層ニューラルネットワークモデルを提案する。
我々の研究は、01損失モデルが代替モデルブラックボックス攻撃に対する強力な防御を提供することを示している。
論文 参考訳(メタデータ) (2020-09-01T22:32:51Z) - Towards adversarial robustness with 01 loss neural networks [0.0]
本稿では,機械学習における敵攻撃に対する防御手段として,畳み込み座標降下を訓練した隠れ層01損失ニューラルネットワークを提案する。
我々は、01損失ネットワークの最小歪みを、二項化ニューラルネットワークと標準シグモノイド活性化ネットワークのクロスエントロピー損失と比較した。
我々の研究は、01損失ネットワークが凸損失や双対ネットワークよりもブラックボックス敵攻撃を防御できる可能性を示唆している。
論文 参考訳(メタデータ) (2020-08-20T18:18:49Z) - Evaluating a Simple Retraining Strategy as a Defense Against Adversarial
Attacks [17.709146615433458]
我々は、KNNのような単純なアルゴリズムが、再トレーニングに必要な逆画像のラベルを決定するためにどのように使用できるかを示す。
CIFAR-10とTinyImageNetという2つの標準データセットで結果を示す。
論文 参考訳(メタデータ) (2020-07-20T07:49:33Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。