論文の概要: Detecting Adversarial Examples from Sensitivity Inconsistency of
Spatial-Transform Domain
- arxiv url: http://arxiv.org/abs/2103.04302v1
- Date: Sun, 7 Mar 2021 08:43:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:47:27.687893
- Title: Detecting Adversarial Examples from Sensitivity Inconsistency of
Spatial-Transform Domain
- Title(参考訳): 空間変換領域の感度不一致からの逆例の検出
- Authors: Jinyu Tian, Jiantao Zhou, Yuanman Li, Jia Duan
- Abstract要約: 敵対的な例(AE)は、劇的なモデル出力エラーを引き起こすように悪意のある設計です。
本研究では,正規例 (nes) が決定境界の高度に曲率の高い領域で発生するゆらぎに敏感でないことを明らかにする。
通常、1つの領域(主に空間領域)上に設計されたAEは、そのような変動に対して極端に敏感である。
- 参考スコア(独自算出の注目度): 17.191679125809035
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep neural networks (DNNs) have been shown to be vulnerable against
adversarial examples (AEs), which are maliciously designed to cause dramatic
model output errors. In this work, we reveal that normal examples (NEs) are
insensitive to the fluctuations occurring at the highly-curved region of the
decision boundary, while AEs typically designed over one single domain (mostly
spatial domain) exhibit exorbitant sensitivity on such fluctuations. This
phenomenon motivates us to design another classifier (called dual classifier)
with transformed decision boundary, which can be collaboratively used with the
original classifier (called primal classifier) to detect AEs, by virtue of the
sensitivity inconsistency. When comparing with the state-of-the-art algorithms
based on Local Intrinsic Dimensionality (LID), Mahalanobis Distance (MD), and
Feature Squeezing (FS), our proposed Sensitivity Inconsistency Detector (SID)
achieves improved AE detection performance and superior generalization
capabilities, especially in the challenging cases where the adversarial
perturbation levels are small. Intensive experimental results on ResNet and VGG
validate the superiority of the proposed SID.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、劇的なモデル出力エラーを引き起こすように悪質に設計された敵の例(AE)に対して脆弱であることが示されている。
本研究では、通常の例(NE)は、決定境界の高度に湾曲した領域で発生する変動に敏感であるのに対し、AEは1つの領域(主に空間領域)上に設計され、そのような変動に対して極端に敏感であることを示す。
この現象は、感度の不整合により、元の分類器(原始分類器)と協調してAEを検出することができる変換決定境界を持つ別の分類器(二重分類器)を設計する動機となる。
LID(Local Intrinsic Dimensionality)、MD(Mahalanobis Distance)、FS(Feature Squeezing)に基づく最先端のアルゴリズムと比較して、提案された感度インシネンスディテクタ(SID)は、特に敵対的な摂動レベルが小さい場合において、AE検出性能と優れた一般化能力の向上を実現します。
ResNet と VGG の総合的な実験結果から,提案した SID の優位性を検証した。
関連論文リスト
- Transcending Forgery Specificity with Latent Space Augmentation for
Generalizable Deepfake Detection [61.845902530915325]
LSDAと呼ばれる簡易で効果的なディープフェイク検出器を提案する。
それは偽りの考えに基づいており、より多様な偽の表現はより一般化可能な決定境界を学べるべきである。
提案手法は驚くほど有効であり, 広く使用されている複数のベンチマークで最先端の検出器を超越することを示す。
論文 参考訳(メタデータ) (2023-11-19T09:41:10Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Time-series Anomaly Detection via Contextual Discriminative Contrastive
Learning [0.0]
一級分類法は、異常検出タスクに一般的に使用される。
本稿では,DeepSVDDの損失関数に着想を得た新しい手法を提案する。
我々は,我々のアプローチと,将来有望な自己教師型学習異常検出手法であるNeutral ADによる決定論的コントラスト損失を組み合わせた。
論文 参考訳(メタデータ) (2023-04-16T21:36:19Z) - MGFN: Magnitude-Contrastive Glance-and-Focus Network for
Weakly-Supervised Video Anomaly Detection [39.923871347007875]
そこで本稿では,空間時間情報を統合して高精度な異常検出を行う新しい視点・焦点ネットワークを提案する。
異常の程度を表すために特徴量を使用する既存のアプローチは、通常、シーンのバリエーションの影響を無視する。
本稿では,異常検出のための特徴量の識別性を高めるため,特徴増幅機構とマグニチュードコントラスト損失を提案する。
論文 参考訳(メタデータ) (2022-11-28T07:10:36Z) - Generalizable Industrial Visual Anomaly Detection with Self-Induction
Vision Transformer [5.116033262865781]
産業用視覚異常検出・局所化のための自己誘導型視覚変換器(SIVT)を提案する。
提案したSIVTは、まず、事前学習したCNNからプロパティ記述子として識別特徴を抽出し、抽出した特徴を自己監督的に再構成する。
その結果,AUROCでは2.8-6.3,APでは3.3-7.6の改善により,最先端検出性能を向上できることがわかった。
論文 参考訳(メタデータ) (2022-11-22T14:56:12Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Detecting and Recovering Adversarial Examples from Extracting Non-robust
and Highly Predictive Adversarial Perturbations [15.669678743693947]
敵の例(AE)は、ターゲットモデルを騙すために悪質に設計されている。
ディープニューラルネットワーク(DNN)は、敵の例に対して脆弱であることが示されている。
本稿では,被害者モデルに問い合わせることができないモデルフリーなAE検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-30T08:48:28Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - Self-Guided Adaptation: Progressive Representation Alignment for Domain
Adaptive Object Detection [86.69077525494106]
非教師なしドメイン適応(UDA)は、オブジェクト検出モデルのドメイン間ロバスト性を改善するために前例のない成功を収めた。
既存のUDA手法は、モデル学習中の瞬間的なデータ分布を無視しており、大きなドメインシフトによって特徴表現が劣化する可能性がある。
本稿では、特徴表現の整合とドメイン間のオブジェクト検出モデルの転送を目標とする自己ガイド適応モデルを提案する。
論文 参考訳(メタデータ) (2020-03-19T13:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。