論文の概要: Shape Defense Against Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2008.13336v3
- Date: Mon, 6 Dec 2021 20:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 06:26:08.520579
- Title: Shape Defense Against Adversarial Attacks
- Title(参考訳): 敵攻撃に対する形状防御
- Authors: Ali Borji
- Abstract要約: 人間は物体を認識するために形状情報に大きく依存している。逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
- 参考スコア(独自算出の注目度): 47.64219291655723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Humans rely heavily on shape information to recognize objects. Conversely,
convolutional neural networks (CNNs) are biased more towards texture. This is
perhaps the main reason why CNNs are vulnerable to adversarial examples. Here,
we explore how shape bias can be incorporated into CNNs to improve their
robustness. Two algorithms are proposed, based on the observation that edges
are invariant to moderate imperceptible perturbations. In the first one, a
classifier is adversarially trained on images with the edge map as an
additional channel. At inference time, the edge map is recomputed and
concatenated to the image. In the second algorithm, a conditional GAN is
trained to translate the edge maps, from clean and/or perturbed images, into
clean images. Inference is done over the generated image corresponding to the
input's edge map. Extensive experiments over 10 datasets demonstrate the
effectiveness of the proposed algorithms against FGSM and $\ell_\infty$ PGD-40
attacks. Further, we show that a) edge information can also benefit other
adversarial training methods, and b) CNNs trained on edge-augmented inputs are
more robust against natural image corruptions such as motion blur, impulse
noise and JPEG compression, than CNNs trained solely on RGB images. From a
broader perspective, our study suggests that CNNs do not adequately account for
image structures that are crucial for robustness. Code is available
at:~\url{https://github.com/aliborji/Shapedefense.git}.
- Abstract(参考訳): 人間は物体を認識するために形状情報に大きく依存する。
逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
これが、CNNが敵の例に弱い主な理由である。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
第一に、エッジマップを付加チャネルとする画像に対して、分類器を逆向きに訓練する。
推論時には、エッジマップが再計算され、画像に結合される。
第2のアルゴリズムでは、条件付きGANを使用して、クリーンな画像や摂動された画像からクリーンな画像へのエッジマップの変換を訓練する。
入力のエッジマップに対応する生成された画像上で推論を行う。
FGSMと$\ell_\infty$ PGD-40攻撃に対する提案アルゴリズムの有効性を示す。
さらに、私たちは
a) エッジ情報は、他の敵の訓練方法にも有益である場合、及び
b)エッジ拡張入力で訓練されたCNNは、RGB画像のみを訓練したCNNよりも、モーションボケ、インパルスノイズ、JPEG圧縮などの自然画像の破損に対して堅牢である。
より広い観点からは、cnnがロバスト性に不可欠な画像構造を適切に考慮していないことを示唆する。
コードは以下の通り。~\url{https://github.com/aliborji/Shapedefense.git}。
関連論文リスト
- Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - Early-exit deep neural networks for distorted images: providing an
efficient edge offloading [69.43216268165402]
ディープニューラルネットワーク(DNN)のエッジオフロードは、入力の複雑さに適応することができる。
画像歪みに対する対策として,特定の歪みタイプを訓練した専門的側枝を導入する。
このアプローチはエッジ上の推定精度を高め、オフロードの決定を改善する。
論文 参考訳(メタデータ) (2021-08-20T19:52:55Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Benford's law: what does it say on adversarial images? [0.0]
自然画像と逆画像の統計的差異について検討する。
本稿では, 適切な画像変換と, 対角攻撃のクラスを用いて, 対角画像中の画素の先頭桁の分布がベンフォードの法則から逸脱していることを示す。
論文 参考訳(メタデータ) (2021-02-09T02:50:29Z) - Color Channel Perturbation Attacks for Fooling Convolutional Neural
Networks and A Defense Against Such Attacks [16.431689066281265]
Conalvolutional Neural Networks(CNN)は、強力なデータ依存型階層的特徴抽出方法として登場した。
ネットワークがトレーニングサンプルを非常に容易に満たしていることが観察される。
CNNを騙すために,カラーチャネル摂動(CCP)攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:35:29Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Increasing the Robustness of Semantic Segmentation Models with
Painting-by-Numbers [39.95214171175713]
我々は,物体の形状に対するネットワークバイアスを増大させることにより,出力を改善することができる画像分類からの洞察に基づいて構築する。
我々の基本的な考え方は、RGBトレーニング画像の一部を偽画像でアルファブレンドすることであり、各クラスラベルには、固定されたランダムに選択された色が与えられる。
各種ネットワークバックボーン,MobileNet-V2,ResNets,Xceptionを用いたDeepLabv3+のトレーニングスキーマの有効性を実証し,Cityscapesデータセットで評価した。
論文 参考訳(メタデータ) (2020-10-12T07:42:39Z) - Homography Estimation with Convolutional Neural Networks Under
Conditions of Variance [0.0]
畳み込みニューラルネットワーク(CNN)を用いた最近の2つの手法の性能解析を行った。
CNNは、ノイズに対してより堅牢であるように訓練できるが、ノイズのないケースでは精度が低い。
我々は,CNNを特定の音の大きさに訓練すると,CNNが最高の性能を示す騒音レベルに対して,Goldilocks Zoneが生じることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:11:25Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。