論文の概要: New Adversarial Image Detection Based on Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2305.03173v1
- Date: Wed, 3 May 2023 14:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 16:06:35.947879
- Title: New Adversarial Image Detection Based on Sentiment Analysis
- Title(参考訳): 感性分析に基づく新たな逆画像検出
- Authors: Yulong Wang, Tianxiang Li, Shenghong Li, Xin Yuan, Wei Ni
- Abstract要約: 敵攻撃モデル、例えばDeepFoolは、敵のサンプル検出技術の増加とアウトランの段階にある。
本稿では,画像データセットに対する最新の対角攻撃を特定するために,最先端の検出器よりも優れた新しい対角検出法を提案する。
- 参考スコア(独自算出の注目度): 37.139957973240264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are vulnerable to adversarial examples, while
adversarial attack models, e.g., DeepFool, are on the rise and outrunning
adversarial example detection techniques. This paper presents a new adversarial
example detector that outperforms state-of-the-art detectors in identifying the
latest adversarial attacks on image datasets. Specifically, we propose to use
sentiment analysis for adversarial example detection, qualified by the
progressively manifesting impact of an adversarial perturbation on the
hidden-layer feature maps of a DNN under attack. Accordingly, we design a
modularized embedding layer with the minimum learnable parameters to embed the
hidden-layer feature maps into word vectors and assemble sentences ready for
sentiment analysis. Extensive experiments demonstrate that the new detector
consistently surpasses the state-of-the-art detection algorithms in detecting
the latest attacks launched against ResNet and Inception neutral networks on
the CIFAR-10, CIFAR-100 and SVHN datasets. The detector only has about 2
million parameters, and takes shorter than 4.6 milliseconds to detect an
adversarial example generated by the latest attack models using a Tesla K80 GPU
card.
- Abstract(参考訳): Deep Neural Networks(DNN)は敵のサンプルに対して脆弱であり、DeepFoolのような敵の攻撃モデルは敵のサンプル検出技術の増加とアウトランの傾向にある。
本稿では,画像データセットに対する最新の敵対的攻撃を特定する際に,最先端の検出器に勝る新たな攻撃的サンプル検出器を提案する。
具体的には,攻撃対象のdnnの隠れ層特徴マップに対する敵意摂動の影響を段階的に表わすことにより,敵対的事例検出に感情分析を適用することを提案する。
そこで我々は,最小学習可能なパラメータでモジュール化された埋め込み層を設計し,隠れ層特徴マップを単語ベクトルに埋め込み,感情分析の準備が整った文を組み立てる。
大規模な実験により、新しい検出器はCIFAR-10、CIFAR-100、SVHNデータセット上のResNetおよびInception中性ネットワークに対する最新の攻撃を検出する際に、最先端の検知アルゴリズムを一貫して上回っていることが示されている。
検出器は約200万のパラメータしか持たず、4.6ミリ秒未満でTesla K80 GPUカードを使用して最新の攻撃モデルによって生成された敵のサンプルを検出する。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Robust Adversarial Attacks Detection for Deep Learning based Relative
Pose Estimation for Space Rendezvous [8.191688622709444]
本稿では,ディープニューラルネットワークを用いた相対ポーズ推定手法の逆攻撃検出のための新しい手法を提案する。
提案した対向攻撃検出器は99.21%の精度で検出できる。
論文 参考訳(メタデータ) (2023-11-10T11:07:31Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Miss the Point: Targeted Adversarial Attack on Multiple Landmark
Detection [29.83857022733448]
本稿では,CNNをベースとしたモデルが,逆方向の摂動に対する複数のランドマーク検出に与える影響を初めて検討した。
本稿では,複数のランドマーク検出における最先端モデルに対する適応的反復FGSM攻撃を提案する。
論文 参考訳(メタデータ) (2020-07-10T07:58:35Z) - Non-Intrusive Detection of Adversarial Deep Learning Attacks via
Observer Networks [5.4572790062292125]
近年の研究では、深層学習モデルは逆入力に弱いことが示されている。
本稿では,主分類網を複数のバイナリ検出器で拡張することにより,逆入力を検出する新しい手法を提案する。
我々は、MNISTデータセットで99.5%、CIFAR-10データセットで97.5%の精度で検出する。
論文 参考訳(メタデータ) (2020-02-22T21:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。