論文の概要: Adversarial Detector with Robust Classifier
- arxiv url: http://arxiv.org/abs/2202.02503v1
- Date: Sat, 5 Feb 2022 07:21:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 15:14:14.588874
- Title: Adversarial Detector with Robust Classifier
- Title(参考訳): ロバスト分類器付き逆検出器
- Authors: Takayuki Osakabe and Maungmaung Aprilpyone and Sayaka Shiota and
Hitoshi Kiya
- Abstract要約: 本稿では, 頑健な分類器と, 素な分類器から構成される新しい対向検出器を提案し, 対向例を高い精度で検出する。
実験で提案した検出器は,ロバストな分類器を使わずに,最先端の検出器よりも優れた性能を示すことを示した。
- 参考スコア(独自算出の注目度): 14.586106862913553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network (DNN) models are wellknown to easily misclassify
prediction results by using input images with small perturbations, called
adversarial examples. In this paper, we propose a novel adversarial detector,
which consists of a robust classifier and a plain one, to highly detect
adversarial examples. The proposed adversarial detector is carried out in
accordance with the logits of plain and robust classifiers. In an experiment,
the proposed detector is demonstrated to outperform a state-of-the-art detector
without any robust classifier.
- Abstract(参考訳): ディープニューラルネットワーク(dnn)モデルは、小さな摂動を持つ入力画像を用いて予測結果を誤分類することがよく知られており、逆例と呼ばれる。
本稿では,ロバストな分類器とプレーンな検出器から構成される新しい逆検出器を提案する。
提案する対向検出器は, 原器およびロバスト分類器のロジットに応じて行われる。
実験では,提案する検出器がロバストな分類器を使わずに最先端の検出器を上回ることを実証した。
関連論文リスト
- How adversarial attacks can disrupt seemingly stable accurate classifiers [76.95145661711514]
敵攻撃は、入力データに不連続な修正を加えることで、非正確な学習システムの出力を劇的に変化させる。
ここでは,これは高次元入力データを扱う分類器の基本的特徴であると考えられる。
実用システムで観測される重要な振る舞いを高い確率で発生させる、単純で汎用的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-09-07T12:02:00Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - New Adversarial Image Detection Based on Sentiment Analysis [37.139957973240264]
敵攻撃モデル、例えばDeepFoolは、敵のサンプル検出技術の増加とアウトランの段階にある。
本稿では,画像データセットに対する最新の対角攻撃を特定するために,最先端の検出器よりも優れた新しい対角検出法を提案する。
論文 参考訳(メタデータ) (2023-05-03T14:32:21Z) - Adversarially Robust One-class Novelty Detection [83.1570537254877]
既存のノベルティ検出器は敵の例に感受性があることが示される。
本稿では, 新規性検知器の潜伏空間を制御し, 敵に対する堅牢性を向上する防衛戦略を提案する。
論文 参考訳(メタデータ) (2021-08-25T10:41:29Z) - Adversarial Examples Detection with Bayesian Neural Network [57.185482121807716]
本稿では,ランダムな成分が予測器の滑らかさを向上できるという観測によって動機づけられた敵の例を検出するための新しい枠組みを提案する。
本稿では,BATer を略した新しいベイズ対向型サンプル検出器を提案し,対向型サンプル検出の性能を向上させる。
論文 参考訳(メタデータ) (2021-05-18T15:51:24Z) - Detection of Adversarial Supports in Few-shot Classifiers Using Feature
Preserving Autoencoders and Self-Similarity [89.26308254637702]
敵対的なサポートセットを強調するための検出戦略を提案する。
我々は,特徴保存型オートエンコーダフィルタリングと,この検出を行うサポートセットの自己相似性の概念を利用する。
提案手法は攻撃非依存であり, 最善の知識まで, 数発分類器の検出を探索する最初の方法である。
論文 参考訳(メタデータ) (2020-12-09T14:13:41Z) - Locally optimal detection of stochastic targeted universal adversarial
perturbations [11.702958949553881]
局所最適一般化確率検定(LOGLRT)に基づく標的的普遍的逆乱(UAP)の検出法を導出する。
また,検出器のパラメータを学習するための教師付きトレーニング手法について述べるとともに,一般的な画像分類データセットの他の検出方法と比較して,検出器の性能が向上したことを示す。
論文 参考訳(メタデータ) (2020-12-08T19:27:39Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - FADER: Fast Adversarial Example Rejection [19.305796826768425]
近年の防御は, 異なる層表現における正統な訓練試料からの異常な偏差を検出することにより, 対向的堅牢性を向上させることが示されている。
本稿では,検出に基づく手法を高速化する新しい手法であるFADERを紹介する。
実験では,MNISTデータセットの解析値と比較すると,最大73倍の試作機,CIFAR10の最大50倍の試作機について概説した。
論文 参考訳(メタデータ) (2020-10-18T22:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。