論文の概要: Watch out! Motion is Blurring the Vision of Your Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2002.03500v3
- Date: Mon, 9 Nov 2020 05:52:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 08:09:07.613015
- Title: Watch out! Motion is Blurring the Vision of Your Deep Neural Networks
- Title(参考訳): 気をつけろ!
深層ニューラルネットワークのビジョンを振り返る「モーション」
- Authors: Qing Guo and Felix Juefei-Xu and Xiaofei Xie and Lei Ma and Jian Wang
and Bing Yu and Wei Feng and Yang Liu
- Abstract要約: 最先端のディープニューラルネットワーク(DNN)は、付加的なランダムなノイズ摂動を伴う敵の例に対して脆弱である。
そこで本研究では,視覚的に自然な動きを呈する対向攻撃の例を生成できる新しい対向攻撃法を提案する。
NeurIPS'17競合競合データセットに関する総合的な評価は、ABBAの有効性を示している。
- 参考スコア(独自算出の注目度): 34.51270823371404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The state-of-the-art deep neural networks (DNNs) are vulnerable against
adversarial examples with additive random-like noise perturbations. While such
examples are hardly found in the physical world, the image blurring effect
caused by object motion, on the other hand, commonly occurs in practice, making
the study of which greatly important especially for the widely adopted
real-time image processing tasks (e.g., object detection, tracking). In this
paper, we initiate the first step to comprehensively investigate the potential
hazards of the blur effect for DNN, caused by object motion. We propose a novel
adversarial attack method that can generate visually natural motion-blurred
adversarial examples, named motion-based adversarial blur attack (ABBA). To
this end, we first formulate the kernel-prediction-based attack where an input
image is convolved with kernels in a pixel-wise way, and the misclassification
capability is achieved by tuning the kernel weights. To generate visually more
natural and plausible examples, we further propose the saliency-regularized
adversarial kernel prediction, where the salient region serves as a moving
object, and the predicted kernel is regularized to achieve naturally visual
effects. Besides, the attack is further enhanced by adaptively tuning the
translations of object and background. A comprehensive evaluation on the
NeurIPS'17 adversarial competition dataset demonstrates the effectiveness of
ABBA by considering various kernel sizes, translations, and regions. The
in-depth study further confirms that our method shows more effective
penetrating capability to the state-of-the-art GAN-based deblurring mechanisms
compared with other blurring methods. We release the code to
https://github.com/tsingqguo/ABBA.
- Abstract(参考訳): 最先端のディープニューラルネットワーク(DNN)は、付加的なランダムなノイズ摂動を伴う敵の例に対して脆弱である。
このような例は物理的にはほとんど見られないが、物体の動きによる画像のぼやけ効果は、実際には一般的に発生しており、特に広く採用されているリアルタイム画像処理タスク(物体検出、追跡など)において非常に重要である。
本稿では,物体の動きによるdnnのぼやけ効果の潜在的危険性を包括的に調査する第1ステップを開始する。
本研究では,視覚的に自然な動きを呈する対向攻撃法,ABBA(Motion-based adversarial blur attack)を提案する。
そこで,我々はまず,入力画像が画素単位でカーネルと畳み込まれているカーネル予測に基づく攻撃を定式化し,カーネル重みをチューニングすることで誤分類能力を達成する。
さらに,視覚的により自然かつ妥当な例を生成するために,サルエント領域が移動対象として機能し,予測されたカーネルを正規化し,自然に視覚効果が得られるサルジェンシー正規化逆向核予測を提案する。
さらに、オブジェクトとバックグラウンドの翻訳を適応的に調整することで、攻撃をさらに強化する。
NeurIPS'17敵競合データセットの包括的な評価は、様々なカーネルサイズ、翻訳、領域を考慮してABBAの有効性を示す。
さらに,本手法は,他のぼやけた方法と比較して,最先端のGANベースのデブロワーリング機構に対して,より効果的に浸透することを示す。
コードをhttps://github.com/tsingqguo/ABBAにリリースします。
関連論文リスト
- Attack Anything: Blind DNNs via Universal Background Adversarial Attack [17.73886733971713]
ディープニューラルネットワーク(DNN)は、敵の摂動に感受性があり、弱いことが広く実証されている。
本稿では,攻撃効果を多種多様な対象,モデル,タスク間でよく一般化する,攻撃の背景攻撃フレームワークを提案する。
我々は,様々な対象,モデル,タスクにまたがるデジタルドメインと物理ドメインの両方において,包括的かつ厳密な実験を行い,提案手法のあらゆる攻撃の有効性を実証した。
論文 参考訳(メタデータ) (2024-08-17T12:46:53Z) - NoiseCAM: Explainable AI for the Boundary Between Noise and Adversarial
Attacks [21.86821880164293]
敵の攻撃は、簡単にニューラルネットワークを誤認し、間違った決定を導く。
本稿では,勾配クラスアクティベーションマップ(GradCAM)を用いて,VGG-16ネットワークの動作偏差を解析する。
また,グローバルおよび画素レベルの重み付けされたクラスアクティベーションマップからの情報を統合する新しいノイズCAMアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-09T22:07:41Z) - Object-Attentional Untargeted Adversarial Attack [11.800889173823945]
本研究では,標的外攻撃に対する対象意図的攻撃法を提案する。
具体的には、まず、対象検出領域をYOLOv4からHVPNetから有能な対象検出領域と交差させてオブジェクト領域を生成する。
次に,SimBA(Simple Black-box Adversarial Attack)を利用して,検出対象領域に対してのみ敵攻撃を行う。
論文 参考訳(メタデータ) (2022-10-16T07:45:13Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - IoU Attack: Towards Temporally Coherent Black-Box Adversarial Attack for
Visual Object Tracking [70.14487738649373]
アドリア攻撃は、深いニューラルネットワークが、知覚不能な摂動によって注入された入力サンプルを知覚する脆弱性によって起こる。
視覚的物体追跡のための決定に基づくブラックボックス攻撃法を提案する。
我々は、最先端のディープトラッカーに対するIoU攻撃を検証した。
論文 参考訳(メタデータ) (2021-03-27T16:20:32Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - Blurring Fools the Network -- Adversarial Attacks by Feature Peak
Suppression and Gaussian Blurring [7.540176446791261]
本論文では,データの特徴におけるピーク要素の値を抑制することにより,ピーク抑制(PS)という逆攻撃デモを提案する。
実験結果は、PSとよく設計されたガウスボケは、よく訓練されたターゲットネットワークの分類結果を完全に変更する敵対攻撃を形成することができることを示しています。
論文 参考訳(メタデータ) (2020-12-21T15:47:14Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z) - Motion-Excited Sampler: Video Adversarial Attack with Sparked Prior [63.11478060678794]
そこで本研究では,前もってモーションアウェアノイズを得るための効果的なモーションエキサイティングサンプリング手法を提案する。
より少ないクエリ数で様々なビデオ分類モデルを攻撃することができる。
論文 参考訳(メタデータ) (2020-03-17T10:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。