論文の概要: Blurring Fools the Network -- Adversarial Attacks by Feature Peak
Suppression and Gaussian Blurring
- arxiv url: http://arxiv.org/abs/2012.11442v1
- Date: Mon, 21 Dec 2020 15:47:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 06:21:28.174678
- Title: Blurring Fools the Network -- Adversarial Attacks by Feature Peak
Suppression and Gaussian Blurring
- Title(参考訳): ネットワークをブルーリングする - 特徴ピーク抑制とガウスブラリングによる敵攻撃
- Authors: Chenchen Zhao and Hao Li
- Abstract要約: 本論文では,データの特徴におけるピーク要素の値を抑制することにより,ピーク抑制(PS)という逆攻撃デモを提案する。
実験結果は、PSとよく設計されたガウスボケは、よく訓練されたターゲットネットワークの分類結果を完全に変更する敵対攻撃を形成することができることを示しています。
- 参考スコア(独自算出の注目度): 7.540176446791261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing pixel-level adversarial attacks on neural networks may be deficient
in real scenarios, since pixel-level changes on the data cannot be fully
delivered to the neural network after camera capture and multiple image
preprocessing steps. In contrast, in this paper, we argue from another
perspective that gaussian blurring, a common technique of image preprocessing,
can be aggressive itself in specific occasions, thus exposing the network to
real-world adversarial attacks. We first propose an adversarial attack demo
named peak suppression (PS) by suppressing the values of peak elements in the
features of the data. Based on the blurring spirit of PS, we further apply
gaussian blurring to the data, to investigate the potential influence and
threats of gaussian blurring to performance of the network. Experiment results
show that PS and well-designed gaussian blurring can form adversarial attacks
that completely change classification results of a well-trained target network.
With the strong physical significance and wide applications of gaussian
blurring, the proposed approach will also be capable of conducting real world
attacks.
- Abstract(参考訳): 既存のピクセルレベルの敵攻撃は、カメラキャプチャと複数の画像前処理ステップの後、データに対するピクセルレベルの変更がニューラルネットワークに完全に配信できないため、実際のシナリオでは不十分である可能性がある。
一方,本稿では,画像前処理の一般的な手法であるガウス的ぼかしが,特定の場面で攻撃的になり,現実の敵攻撃にネットワークを晒す可能性がある,という意見もある。
まず,データの特徴におけるピーク要素の値を抑制することで,対向攻撃デモであるピーク抑圧(ps)を提案する。
さらに,PSのぼやけた精神に基づいて,ガウスのぼやけをデータに適用し,ガウスのぼやけがネットワークの性能に与える影響と脅威について検討する。
実験の結果、psとよく設計されたガウスのぼやけは、訓練された標的ネットワークの分類結果を完全に変える敵の攻撃を形成することが示されている。
ガウスのぼやきの強い物理的意義と幅広い応用により、提案されたアプローチは現実世界の攻撃も行うことができる。
関連論文リスト
- SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Hiding Images into Images with Real-world Robustness [21.328984859163956]
高品質な画像抽出を実現しつつ,画像に隠蔽する生成ネットワーク方式を提案する。
埋め込みネットワークは、攻撃層、分離ネットワーク、画像抽出ネットワークと順次分離される。
私たちは3つの秘密のイメージをしっかりと隠した最初の人です。
論文 参考訳(メタデータ) (2021-10-12T02:20:34Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Adversarial Imaging Pipelines [28.178120782659878]
我々は、特定のカメラISPを騙し、他のISPをそのままにしておく攻撃を開発する。
最新の自動車用ハードウェアISPを用いて提案手法を検証する。
論文 参考訳(メタデータ) (2021-02-07T06:10:54Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - Patch-wise++ Perturbation for Adversarial Targeted Attacks [132.58673733817838]
トランスファビリティの高い対比例の作成を目的としたパッチワイズ反復法(PIM)を提案する。
具体的には、各イテレーションのステップサイズに増幅係数を導入し、$epsilon$-constraintをオーバーフローする1ピクセルの全体的な勾配が、その周辺領域に適切に割り当てられる。
現在の攻撃方法と比較して、防御モデルでは35.9%、通常訓練されたモデルでは32.7%、成功率を大幅に向上させた。
論文 参考訳(メタデータ) (2020-12-31T08:40:42Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Self-Supervised Linear Motion Deblurring [112.75317069916579]
深層畳み込みニューラルネットワークは、画像の劣化の最先端技術である。
本稿では,自己監督型動作遅延に対する識別可能なreblurモデルを提案する。
我々の実験は、自己監督された単一画像の劣化が本当に実現可能であることを実証した。
論文 参考訳(メタデータ) (2020-02-10T20:15:21Z) - Watch out! Motion is Blurring the Vision of Your Deep Neural Networks [34.51270823371404]
最先端のディープニューラルネットワーク(DNN)は、付加的なランダムなノイズ摂動を伴う敵の例に対して脆弱である。
そこで本研究では,視覚的に自然な動きを呈する対向攻撃の例を生成できる新しい対向攻撃法を提案する。
NeurIPS'17競合競合データセットに関する総合的な評価は、ABBAの有効性を示している。
論文 参考訳(メタデータ) (2020-02-10T02:33:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。