論文の概要: Adversarial Example Detection for DNN Models: A Review
- arxiv url: http://arxiv.org/abs/2105.00203v1
- Date: Sat, 1 May 2021 09:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 09:13:16.680886
- Title: Adversarial Example Detection for DNN Models: A Review
- Title(参考訳): DNNモデルの逆例検出:一考察
- Authors: Ahmed Aldahdooh, Wassim Hamidouche, Sid Ahmed Fezza, Olivier Deforges
- Abstract要約: 敵対的な例(AE)の目的は、ディープラーニングモデルを騙すことであり、DLアプリケーションに潜在的なリスクをもたらす。
少数のレビューと調査が出版され、理論的には脅威の分類と対策方法を示した。
このような方法に関する詳細な議論を行い、8つの最先端検出器の実験結果を示す。
- 参考スコア(独自算出の注目度): 13.131592630524905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) has shown great success in many human-related tasks, which
has led to its adoption in many computer vision based applications, such as
security surveillance system, autonomous vehicles and healthcare. Such
safety-critical applications have to draw its path to success deployment once
they have the capability to overcome safety-critical challenges. Among these
challenges are the defense against or/and the detection of the adversarial
example (AE). Adversary can carefully craft small, often imperceptible, noise
called perturbations, to be added to the clean image to generate the AE. The
aim of AE is to fool the DL model which makes it a potential risk for DL
applications. Many test-time evasion attacks and countermeasures, i.e., defense
or detection methods, are proposed in the literature. Moreover, few reviews and
surveys were published and theoretically showed the taxonomy of the threats and
the countermeasure methods with little focus in AE detection methods. In this
paper, we attempt to provide a theoretical and experimental review for AE
detection methods. A detailed discussion for such methods is provided and
experimental results for eight state-of-the-art detectors are presented under
different scenarios on four datasets. We also provide potential challenges and
future perspectives for this research direction.
- Abstract(参考訳): ディープラーニング(DL)は多くの人間関連のタスクで大きな成功を収めており、セキュリティ監視システム、自動運転車、ヘルスケアなど、多くのコンピュータビジョンベースのアプリケーションで採用されている。
このようなセーフティクリティカルなアプリケーションは、セーフティクリティカルな課題を克服できる能力を持つと、成功への道を開く必要があります。
これらの課題の1つは、敵の例(AE)の検出に対する防御である。
敵は小さく、しばしば知覚できない、摂動と呼ばれるノイズを慎重に作り、きれいな画像に追加してAEを生成する。
AEの目的は、DLアプリケーションに潜在的なリスクをもたらすDLモデルを騙すことである。
文献では,多くのテストタイム回避攻撃や対策,すなわち防御法や検出法が提案されている。
さらに,AE検出方法にはほとんど焦点を絞らず,脅威の分類と対策方法を理論的に示したレビューや調査は少なかった。
本稿では,AE検出法に関する理論的,実験的検討を行う。
このような方法に関する詳細な議論を行い,4つのデータセットの異なるシナリオ下で8つの最先端検出器の実験結果を示す。
この研究の方向性には潜在的な課題と今後の展望も提供します。
関連論文リスト
- Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Remote Sensing Object Detection Meets Deep Learning: A Meta-review of
Challenges and Advances [51.70835702029498]
本稿では,ディープラーニングに基づくRSOD手法の最近の成果を概観する。
RSODの主な課題として,マルチスケールオブジェクト検出,回転オブジェクト検出,弱いオブジェクト検出,小さなオブジェクト検出,限られた監視を伴うオブジェクト検出の5つを挙げる。
また、RSODの分野で広く使用されているベンチマークデータセットと評価指標、およびRSODのアプリケーションシナリオについてもレビューする。
論文 参考訳(メタデータ) (2023-09-13T06:48:32Z) - Review on the Feasibility of Adversarial Evasion Attacks and Defenses
for Network Intrusion Detection Systems [0.7829352305480285]
最近の研究は、サイバーセキュリティ分野における多くの懸念を提起している。
機械学習アルゴリズムに基づくセキュリティシステムに対する攻撃の可能性について研究する研究者が増えている。
論文 参考訳(メタデータ) (2023-03-13T11:00:05Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - Detecting Operational Adversarial Examples for Reliable Deep Learning [12.175315224450678]
今後の運用において比較的高い確率で見られるAEである"operational AEs"という新しい概念を提示する。
操作性AE」を効率的に検出するための新しいDLテスト方法の初期設計が提供される。
論文 参考訳(メタデータ) (2021-04-13T08:31:42Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Towards Characterizing Adversarial Defects of Deep Learning Software
from the Lens of Uncertainty [30.97582874240214]
逆例(AE)は、緊急に対処するために必要な、典型的な、重要な欠陥のタイプを表します。
深層学習決定の本質的な不確実性は、その誤った振る舞いの根本的な理由である。
良性例(BE)とAEsの不確実性パターンを同定・分類し,既存の手法で生成されたBEとAEは共通不確実性パターンに従うが,他の不確実性パターンはほとんど欠落している。
論文 参考訳(メタデータ) (2020-04-24T07:29:47Z) - Anomalous Example Detection in Deep Learning: A Survey [98.2295889723002]
本調査は,ディープラーニングアプリケーションにおける異常検出の研究について,構造化された包括的概要を提供する。
既存の技術に対する分類法を,その基礎となる前提と採用アプローチに基づいて提案する。
本稿では,DLシステムに異常検出技術を適用しながら未解決の研究課題を取り上げ,今後の課題について述べる。
論文 参考訳(メタデータ) (2020-03-16T02:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。