論文の概要: Adversarially Robust One-class Novelty Detection
- arxiv url: http://arxiv.org/abs/2108.11168v1
- Date: Wed, 25 Aug 2021 10:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-26 12:58:50.543005
- Title: Adversarially Robust One-class Novelty Detection
- Title(参考訳): 逆ロバスト一級ノベルティ検出
- Authors: Shao-Yuan Lo, Poojan Oza, Vishal M. Patel
- Abstract要約: 既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
- 参考スコア(独自算出の注目度): 83.1570537254877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-class novelty detectors are trained with examples of a particular class
and are tasked with identifying whether a query example belongs to the same
known class. Most recent advances adopt a deep auto-encoder style architecture
to compute novelty scores for detecting novel class data. Deep networks have
shown to be vulnerable to adversarial attacks, yet little focus is devoted to
studying the adversarial robustness of deep novelty detectors. In this paper,
we first show that existing novelty detectors are susceptible to adversarial
examples. We further demonstrate that commonly-used defense approaches for
classification tasks have limited effectiveness in one-class novelty detection.
Hence, we need a defense specifically designed for novelty detection. To this
end, we propose a defense strategy that manipulates the latent space of novelty
detectors to improve the robustness against adversarial examples. The proposed
method, referred to as Principal Latent Space (PLS), learns the
incrementally-trained cascade principal components in the latent space to
robustify novelty detectors. PLS can purify latent space against adversarial
examples and constrain latent space to exclusively model the known class
distribution. We conduct extensive experiments on multiple attacks, datasets
and novelty detectors, showing that PLS consistently enhances the adversarial
robustness of novelty detection models.
- Abstract(参考訳): 一級ノベルティ検出器は特定のクラスの例で訓練され、クエリの例が同じ既知のクラスに属しているかどうかを識別する。
最近の進歩は、新しいクラスデータを検出するための新しいスコアを計算するために、ディープオートエンコーダスタイルのアーキテクチャを採用している。
ディープネットワークは敵の攻撃に弱いことが示されているが、ディープノベルティ検出器の敵の堅牢性の研究にはほとんど焦点が当てられていない。
本稿では,既存の新規性検知器が敵の例の影響を受けやすいことを示す。
さらに,分類課題に対する一般的な防御手法は,一級新奇性検出において有効性に乏しいことを実証する。
したがって、ノベルティ検出用に特別に設計された防御が必要である。
そこで本研究では,新規性検知器の潜伏空間を制御し,敵の例に対する堅牢性を向上する防衛戦略を提案する。
提案手法はPLS(Principal Latent Space)と呼ばれ、潜伏空間における漸進的に訓練されたカスケード主成分を学習し、新規検出器の堅牢化を図る。
PLSは、逆例に対する潜在空間を浄化し、既知のクラス分布のみをモデル化するために潜在空間を制約することができる。
我々は,複数攻撃,データセット,ノベルティ検出器の広範な実験を行い,PLSが新規性検出モデルの対角的堅牢性を一貫して向上することを示した。
関連論文リスト
- HOLMES: to Detect Adversarial Examples with Multiple Detectors [1.455585466338228]
HOLMESは、高い精度と偽陽性率の低い複数の攻撃から、テクスチュンシンの敵の例を識別することができる。
我々の効果的で安価な戦略は、オリジナルのDNNモデルを変更したり、内部パラメータを必要としたりしない。
論文 参考訳(メタデータ) (2024-05-30T11:22:55Z) - Spatial-Frequency Discriminability for Revealing Adversarial Perturbations [53.279716307171604]
敵の摂動に対するディープニューラルネットワークの脆弱性は、コンピュータビジョンコミュニティで広く認識されている。
現在のアルゴリズムは、通常、自然および敵対的なデータの識別的分解を通じて、敵のパターンを検出する。
空間周波数Krawtchouk分解に基づく識別検出器を提案する。
論文 参考訳(メタデータ) (2023-05-18T10:18:59Z) - TextShield: Beyond Successfully Detecting Adversarial Sentences in Text
Classification [6.781100829062443]
敵攻撃は、安全クリティカルなアプリケーションへのモデルのデプロイを妨げる、NLPのニューラルネットワークモデルにとって大きな課題となる。
従来の検出方法は、相手文に対して正しい予測を与えることができない。
本稿では,入力文が逆であるか否かを効果的に検出できる唾液度に基づく検出器を提案する。
論文 参考訳(メタデータ) (2023-02-03T22:58:07Z) - Adversarial Detector with Robust Classifier [14.586106862913553]
本稿では, 頑健な分類器と, 素な分類器から構成される新しい対向検出器を提案し, 対向例を高い精度で検出する。
実験で提案した検出器は,ロバストな分類器を使わずに,最先端の検出器よりも優れた性能を示すことを示した。
論文 参考訳(メタデータ) (2022-02-05T07:21:05Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - TREATED:Towards Universal Defense against Textual Adversarial Attacks [28.454310179377302]
本稿では,様々な摂動レベルの攻撃に対して,仮定なしに防御できる汎用的対向検出手法であるTREATEDを提案する。
3つの競合するニューラルネットワークと2つの広く使われているデータセットの大規模な実験により、本手法はベースラインよりも優れた検出性能が得られることが示された。
論文 参考訳(メタデータ) (2021-09-13T03:31:20Z) - Learning to Detect Adversarial Examples Based on Class Scores [0.8411385346896413]
我々は、すでに訓練済みの分類モデルのクラススコアに基づいて、敵の攻撃検出についてより詳しく検討する。
本稿では,SVM(Support Vector Machine)をクラススコアで学習し,逆例を検出することを提案する。
提案手法は,実装が容易でありながら,既存の手法と比較して検出率の向上を図っている。
論文 参考訳(メタデータ) (2021-07-09T13:29:54Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。