論文の概要: Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2108.10217v1
- Date: Mon, 23 Aug 2021 14:52:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 16:03:08.681921
- Title: Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks
- Title(参考訳): ディープベイズ画像集合分類 : 敵対的攻撃に対する防御的アプローチ
- Authors: Nima Mirnateghi, Syed Afaq Ali Shah, Mohammed Bennamoun
- Abstract要約: ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
- 参考スコア(独自算出の注目度): 32.48820298978333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has become an integral part of various computer vision systems
in recent years due to its outstanding achievements for object recognition,
facial recognition, and scene understanding. However, deep neural networks
(DNNs) are susceptible to be fooled with nearly high confidence by an
adversary. In practice, the vulnerability of deep learning systems against
carefully perturbed images, known as adversarial examples, poses a dire
security threat in the physical world applications. To address this phenomenon,
we present, what to our knowledge, is the first ever image set based
adversarial defence approach. Image set classification has shown an exceptional
performance for object and face recognition, owing to its intrinsic property of
handling appearance variability. We propose a robust deep Bayesian image set
classification as a defence framework against a broad range of adversarial
attacks. We extensively experiment the performance of the proposed technique
with several voting strategies. We further analyse the effects of image size,
perturbation magnitude, along with the ratio of perturbed images in each image
set. We also evaluate our technique with the recent state-of-the-art defence
methods, and single-shot recognition task. The empirical results demonstrate
superior performance on CIFAR-10, MNIST, ETH-80, and Tiny ImageNet datasets.
- Abstract(参考訳): 近年、ディープラーニングは、物体認識、顔認識、シーン理解に優れた業績により、様々なコンピュータビジョンシステムにおいて不可欠な部分となっている。
しかし、ディープニューラルネットワーク(DNN)は敵にほぼ自信を持って騙される可能性がある。
実際には、注意深い摂動画像に対するディープラーニングシステムの脆弱性は、敵対的な例として知られ、物理的な世界のアプリケーションにおいて深刻なセキュリティの脅威となる。
この現象に対処するために、我々は、我々の知識に対して、初めて、敵対的防御に基づくイメージセットを提示する。
画像集合分類は、外見の多様性を扱う本質的な性質から、物体と顔の認識に例外的な性能を示した。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
提案手法の性能を様々な投票戦略を用いて広範囲に実験する。
さらに,各画像集合における摂動画像の比率とともに,画像サイズ,摂動大きさの影響を解析する。
また,最新の防御手法とシングルショット認識タスクを用いて,本手法を評価した。
CIFAR-10, MNIST, ETH-80, Tiny ImageNetデータセットでは, 実験結果が優れていた。
関連論文リスト
- Tailoring Adversarial Attacks on Deep Neural Networks for Targeted Class
Manipulation Using DeepFool Algorithm [0.0]
Moosavi-Dezfooliらによる畳み込みアルゴリズムであるDeepFoolは、入力画像を誤分類するために最小限の摂動を求める。
DeepFoolにはターゲットのアプローチがないため、特定の攻撃シナリオでは効果が低い。
我々は,DeepFoolの拡張バージョンであるEnhanced Targeted DeepFoolを提案する。
論文 参考訳(メタデータ) (2023-10-18T18:50:39Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [57.46379460600939]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - A Black-Box Attack on Optical Character Recognition Systems [0.0]
敵対的機械学習は、ディープラーニングモデルの脆弱性を示す新興分野である。
本稿では,バイナリ画像分類器上での効果的なコンビネータブラックボックス攻撃法を提案する。
2つの異なるデータセットと3つの分類ネットワーク上での攻撃手法の有効性を検証し,その性能を実証した。
論文 参考訳(メタデータ) (2022-08-30T14:36:27Z) - Minimum Noticeable Difference based Adversarial Privacy Preserving Image
Generation [44.2692621807947]
クリーンなものと最小限の知覚差を持つが、ディープラーニングモデルに攻撃できる敵対的プライバシ保護画像を生成するためのフレームワークを開発する。
我々の知る限りでは、これはプライバシー保護のためのMND概念に基づく品質保護の敵画像生成を探求する最初の試みである。
論文 参考訳(メタデータ) (2022-06-17T09:02:12Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - FACESEC: A Fine-grained Robustness Evaluation Framework for Face
Recognition Systems [49.577302852655144]
FACESECは、顔認識システムのきめ細かい堅牢性評価のためのフレームワークです。
5つの顔認識システムをクローズド設定とオープン設定の両方で検討します。
ニューラルネットワークの正確な知識は、ブラックボックス攻撃におけるトレーニングデータの知識よりもはるかに重要である。
論文 参考訳(メタデータ) (2021-04-08T23:00:25Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Face Anti-Spoofing Via Disentangled Representation Learning [90.90512800361742]
顔認識システムのセキュリティには、顔の偽造が不可欠だ。
本稿では,画像から生意気な特徴やコンテンツの特徴を乱す顔のアンチ・スプーフィングの新たな視点を提案する。
論文 参考訳(メタデータ) (2020-08-19T03:54:23Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。