論文の概要: MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis
- arxiv url: http://arxiv.org/abs/2104.10076v2
- Date: Mon, 24 Jan 2022 11:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 02:29:32.401428
- Title: MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis
- Title(参考訳): mix defense: 統計的・意味的分析に基づく敵のサンプル検出のためのディフェンス・イン・ディフェンスフレームワーク
- Authors: Yijun Yang, Ruiyuan Gao, Yu Li, Qiuxia Lai, Qiang Xu
- Abstract要約: AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
- 参考スコア(独自算出の注目度): 14.313178290347293
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Machine learning with deep neural networks (DNNs) has become one of the
foundation techniques in many safety-critical systems, such as autonomous
vehicles and medical diagnosis systems. DNN-based systems, however, are known
to be vulnerable to adversarial examples (AEs) that are maliciously perturbed
variants of legitimate inputs. While there has been a vast body of research to
defend against AE attacks in the literature, the performances of existing
defense techniques are still far from satisfactory, especially for adaptive
attacks, wherein attackers are knowledgeable about the defense mechanisms and
craft AEs accordingly. In this work, we propose a multilayer defense-in-depth
framework for AE detection, namely MixDefense. For the first layer, we focus on
those AEs with large perturbations. We propose to leverage the `noise' features
extracted from the inputs to discover the statistical difference between
natural images and tampered ones for AE detection. For AEs with small
perturbations, the inference result of such inputs would largely deviate from
their semantic information. Consequently, we propose a novel learning-based
solution to model such contradictions for AE detection. Both layers are
resilient to adaptive attacks because there do not exist gradient propagation
paths for AE generation. Experimental results with various AE attack methods on
image classification datasets show that the proposed MixDefense solution
outperforms the existing AE detection techniques by a considerable margin.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を用いた機械学習は、自動運転車や医療診断システムなど、多くの安全クリティカルなシステムの基盤技術のひとつとなっている。
しかし、DNNベースのシステムは、悪意ある正規入力の変種である敵の例(AE)に対して脆弱であることが知られている。
ae攻撃を防御するための研究が文献で数多く行われているが、既存の防御技術のパフォーマンスは、特にアダプティブアタックにおいて、攻撃者が防御機構について知識を持ち、それに応じてaesを製作するなど、まだ満足のいくものではない。
本研究では,AE検出のための多層防御フレームワークであるMixDefenseを提案する。
最初のレイヤでは、大きな摂動を持つAEに焦点を当てます。
本稿では,入力から抽出した「ノイズ」の特徴を活用し,自然画像と改ざん画像との統計的差異をae検出に活用する。
小さな摂動を持つAEの場合、そのような入力の推測結果は意味情報から大きく逸脱する。
そこで本研究では,AE検出のための新たな学習ベースソリューションを提案する。
AE生成のための勾配伝搬経路が存在しないため、どちらの層も適応攻撃に対して耐性がある。
画像分類データセットに対する様々なAE攻撃手法による実験結果から、提案したMixDefenseソリューションは既存のAE検出手法よりもかなり優れた性能を示した。
関連論文リスト
- FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Diffusion-Based Particle-DETR for BEV Perception [94.88305708174796]
Bird-Eye-View (BEV)は、自律走行車(AV)における視覚知覚のための最も広く使われているシーンの1つである。
近年の拡散法は、視覚知覚のための不確実性モデリングに有望なアプローチを提供するが、BEVの広い範囲において、小さな物体を効果的に検出することができない。
本稿では,BEVにおける拡散パラダイムと最先端の3Dオブジェクト検出器を組み合わせることで,この問題に対処する。
論文 参考訳(メタデータ) (2023-12-18T09:52:14Z) - LAMBO: Large AI Model Empowered Edge Intelligence [71.56135386994119]
次世代エッジインテリジェンスは、オフロード技術を通じて様々なアプリケーションに恩恵をもたらすことが期待されている。
従来のオフロードアーキテクチャは、不均一な制約、部分的な認識、不確実な一般化、トラクタビリティの欠如など、いくつかの問題に直面している。
我々は、これらの問題を解決するための10億以上のパラメータを持つLarge AI Model-Based Offloading (LAMBO)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Detecting and Recovering Adversarial Examples from Extracting Non-robust
and Highly Predictive Adversarial Perturbations [15.669678743693947]
敵の例(AE)は、ターゲットモデルを騙すために悪質に設計されている。
ディープニューラルネットワーク(DNN)は、敵の例に対して脆弱であることが示されている。
本稿では,被害者モデルに問い合わせることができないモデルフリーなAE検出手法を提案する。
論文 参考訳(メタデータ) (2022-06-30T08:48:28Z) - What You See is Not What the Network Infers: Detecting Adversarial
Examples Based on Semantic Contradiction [14.313178290347293]
敵対的な例(AE)は、ディープニューラルネットワーク(DNN)の安全クリティカルドメインへの応用に深刻な脅威をもたらす。
本稿では,AEの本質に基づいた新しいAE検出フレームワークを提案する。
ContraNetは、特にアダプティブアタックにおいて、既存のソリューションよりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2022-01-24T13:15:31Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Adversarial Example Detection for DNN Models: A Review [13.131592630524905]
敵対的な例(AE)の目的は、ディープラーニングモデルを騙すことであり、DLアプリケーションに潜在的なリスクをもたらす。
少数のレビューと調査が出版され、理論的には脅威の分類と対策方法を示した。
このような方法に関する詳細な議論を行い、8つの最先端検出器の実験結果を示す。
論文 参考訳(メタデータ) (2021-05-01T09:55:17Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - SLAP: Improving Physical Adversarial Examples with Short-Lived
Adversarial Perturbations [19.14079118174123]
Short-Lived Adrial Perturbations (SLAP) は、光プロジェクターを用いて、敵が物理的に堅牢な現実世界のAEを実現できる新しい技術である。
SLAPは、敵のパッチよりも敵の攻撃に対するコントロールを大きくする。
自動走行シナリオにおけるSLAPの実現可能性について検討し,物体検出タスクと交通標識認識タスクの両方を対象として検討した。
論文 参考訳(メタデータ) (2020-07-08T14:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。