論文の概要: Adversarial Example Detection for DNN Models: A Review
- arxiv url: http://arxiv.org/abs/2105.00203v1
- Date: Sat, 1 May 2021 09:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 09:13:16.680886
- Title: Adversarial Example Detection for DNN Models: A Review
- Title(参考訳): DNNモデルの逆例検出:一考察
- Authors: Ahmed Aldahdooh, Wassim Hamidouche, Sid Ahmed Fezza, Olivier Deforges
- Abstract要約: 敵対的な例(AE)の目的は、ディープラーニングモデルを騙すことであり、DLアプリケーションに潜在的なリスクをもたらす。
少数のレビューと調査が出版され、理論的には脅威の分類と対策方法を示した。
このような方法に関する詳細な議論を行い、8つの最先端検出器の実験結果を示す。
- 参考スコア(独自算出の注目度): 13.131592630524905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) has shown great success in many human-related tasks, which
has led to its adoption in many computer vision based applications, such as
security surveillance system, autonomous vehicles and healthcare. Such
safety-critical applications have to draw its path to success deployment once
they have the capability to overcome safety-critical challenges. Among these
challenges are the defense against or/and the detection of the adversarial
example (AE). Adversary can carefully craft small, often imperceptible, noise
called perturbations, to be added to the clean image to generate the AE. The
aim of AE is to fool the DL model which makes it a potential risk for DL
applications. Many test-time evasion attacks and countermeasures, i.e., defense
or detection methods, are proposed in the literature. Moreover, few reviews and
surveys were published and theoretically showed the taxonomy of the threats and
the countermeasure methods with little focus in AE detection methods. In this
paper, we attempt to provide a theoretical and experimental review for AE
detection methods. A detailed discussion for such methods is provided and
experimental results for eight state-of-the-art detectors are presented under
different scenarios on four datasets. We also provide potential challenges and
future perspectives for this research direction.
- Abstract(参考訳): ディープラーニング(DL)は多くの人間関連のタスクで大きな成功を収めており、セキュリティ監視システム、自動運転車、ヘルスケアなど、多くのコンピュータビジョンベースのアプリケーションで採用されている。
このようなセーフティクリティカルなアプリケーションは、セーフティクリティカルな課題を克服できる能力を持つと、成功への道を開く必要があります。
これらの課題の1つは、敵の例(AE)の検出に対する防御である。
敵は小さく、しばしば知覚できない、摂動と呼ばれるノイズを慎重に作り、きれいな画像に追加してAEを生成する。
AEの目的は、DLアプリケーションに潜在的なリスクをもたらすDLモデルを騙すことである。
文献では,多くのテストタイム回避攻撃や対策,すなわち防御法や検出法が提案されている。
さらに,AE検出方法にはほとんど焦点を絞らず,脅威の分類と対策方法を理論的に示したレビューや調査は少なかった。
本稿では,AE検出法に関する理論的,実験的検討を行う。
このような方法に関する詳細な議論を行い,4つのデータセットの異なるシナリオ下で8つの最先端検出器の実験結果を示す。
この研究の方向性には潜在的な課題と今後の展望も提供します。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Underwater Object Detection in the Era of Artificial Intelligence: Current, Challenge, and Future [119.88454942558485]
水中物体検出(UOD)は、水中の画像やビデオ中の物体を識別し、ローカライズすることを目的としている。
近年、人工知能(AI)に基づく手法、特に深層学習法は、UODにおいて有望な性能を示している。
論文 参考訳(メタデータ) (2024-10-08T00:25:33Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Remote Sensing Object Detection Meets Deep Learning: A Meta-review of
Challenges and Advances [51.70835702029498]
本稿では,ディープラーニングに基づくRSOD手法の最近の成果を概観する。
RSODの主な課題として,マルチスケールオブジェクト検出,回転オブジェクト検出,弱いオブジェクト検出,小さなオブジェクト検出,限られた監視を伴うオブジェクト検出の5つを挙げる。
また、RSODの分野で広く使用されているベンチマークデータセットと評価指標、およびRSODのアプリケーションシナリオについてもレビューする。
論文 参考訳(メタデータ) (2023-09-13T06:48:32Z) - Review on the Feasibility of Adversarial Evasion Attacks and Defenses
for Network Intrusion Detection Systems [0.7829352305480285]
最近の研究は、サイバーセキュリティ分野における多くの懸念を提起している。
機械学習アルゴリズムに基づくセキュリティシステムに対する攻撃の可能性について研究する研究者が増えている。
論文 参考訳(メタデータ) (2023-03-13T11:00:05Z) - MixDefense: A Defense-in-Depth Framework for Adversarial Example
Detection Based on Statistical and Semantic Analysis [14.313178290347293]
AE検出のための多層ディフェンス・イン・ディープス・フレームワーク(MixDefense)を提案する。
入力から抽出した雑音の特徴を利用して、自然画像と改ざん画像の統計的差異を抽出し、AE検出を行う。
提案したMixDefenseソリューションは,既存のAE検出技術よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2021-04-20T15:57:07Z) - Detecting Operational Adversarial Examples for Reliable Deep Learning [12.175315224450678]
今後の運用において比較的高い確率で見られるAEである"operational AEs"という新しい概念を提示する。
操作性AE」を効率的に検出するための新しいDLテスト方法の初期設計が提供される。
論文 参考訳(メタデータ) (2021-04-13T08:31:42Z) - Selective and Features based Adversarial Example Detection [12.443388374869745]
Deep Neural Networks (DNN) を中継するセキュリティに敏感なアプリケーションは、Adversarial Examples (AE) を生成するために作られた小さな摂動に弱い。
本稿では,マルチタスク学習環境における選択的予測,モデルレイヤの出力処理,知識伝達概念を用いた教師なし検出機構を提案する。
実験の結果,提案手法は,ホワイトボックスシナリオにおけるテスト攻撃に対する最先端手法と同等の結果を得られ,ブラックボックスとグレーボックスシナリオの精度が向上した。
論文 参考訳(メタデータ) (2021-03-09T11:06:15Z) - Towards Characterizing Adversarial Defects of Deep Learning Software
from the Lens of Uncertainty [30.97582874240214]
逆例(AE)は、緊急に対処するために必要な、典型的な、重要な欠陥のタイプを表します。
深層学習決定の本質的な不確実性は、その誤った振る舞いの根本的な理由である。
良性例(BE)とAEsの不確実性パターンを同定・分類し,既存の手法で生成されたBEとAEは共通不確実性パターンに従うが,他の不確実性パターンはほとんど欠落している。
論文 参考訳(メタデータ) (2020-04-24T07:29:47Z) - Anomalous Example Detection in Deep Learning: A Survey [98.2295889723002]
本調査は,ディープラーニングアプリケーションにおける異常検出の研究について,構造化された包括的概要を提供する。
既存の技術に対する分類法を,その基礎となる前提と採用アプローチに基づいて提案する。
本稿では,DLシステムに異常検出技術を適用しながら未解決の研究課題を取り上げ,今後の課題について述べる。
論文 参考訳(メタデータ) (2020-03-16T02:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。