論文の概要: Adversarial Perturbations Prevail in the Y-Channel of the YCbCr Color
Space
- arxiv url: http://arxiv.org/abs/2003.00883v1
- Date: Tue, 25 Feb 2020 02:41:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 20:36:01.553962
- Title: Adversarial Perturbations Prevail in the Y-Channel of the YCbCr Color
Space
- Title(参考訳): YCbCr色空間のYチャネルにおける対向摂動
- Authors: Camilo Pestana, Naveed Akhtar, Wei Liu, David Glance, Ajmal Mian
- Abstract要約: ホワイトボックス攻撃では、RGB画像上で動作する深いモデルに対して、逆方向の摂動が一般的に学習される。
本稿では, YCbCr空間のYチャネルにおいて, 対向摂動が広まることを示す。
そこで本研究では,敵画像に対する防御法を提案する。
- 参考スコア(独自算出の注目度): 43.49959098842923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning offers state of the art solutions for image recognition.
However, deep models are vulnerable to adversarial perturbations in images that
are subtle but significantly change the model's prediction. In a white-box
attack, these perturbations are generally learned for deep models that operate
on RGB images and, hence, the perturbations are equally distributed in the RGB
color space. In this paper, we show that the adversarial perturbations prevail
in the Y-channel of the YCbCr space. Our finding is motivated from the fact
that the human vision and deep models are more responsive to shape and texture
rather than color. Based on our finding, we propose a defense against
adversarial images. Our defence, coined ResUpNet, removes perturbations only
from the Y-channel by exploiting ResNet features in an upsampling framework
without the need for a bottleneck. At the final stage, the untouched
CbCr-channels are combined with the refined Y-channel to restore the clean
image. Note that ResUpNet is model agnostic as it does not modify the DNN
structure. ResUpNet is trained end-to-end in Pytorch and the results are
compared to existing defence techniques in the input transformation category.
Our results show that our approach achieves the best balance between defence
against adversarial attacks such as FGSM, PGD and DDN and maintaining the
original accuracies of VGG-16, ResNet50 and DenseNet121 on clean images. We
perform another experiment to show that learning adversarial perturbations only
for the Y-channel results in higher fooling rates for the same perturbation
magnitude.
- Abstract(参考訳): ディープラーニングは、画像認識のための最先端の技術ソリューションを提供する。
しかし、深層モデルは微妙だがモデルの予測を大きく変える画像の逆摂動に対して脆弱である。
ホワイトボックス攻撃では、これらの摂動は一般的にRGB画像で動作する深層モデルに対して学習され、したがって、摂動はRGB色空間に等しく分布する。
本稿では, YCbCr空間のYチャネルにおいて, 対向摂動が広まることを示す。
私たちの発見は、人間の視覚と深層モデルが色よりも形とテクスチャに反応するという事実に動機づけられている。
そこで本研究では,敵画像に対する防御法を提案する。
我々の防衛はResUpNetと呼ばれ、ボトルネックを伴わずにアップサンプリングフレームワークでResNet機能を活用することで、Yチャネルからのみ摂動を取り除く。
最終段階では、未タッチのCbCrチャネルと精製されたYチャネルが結合されてクリーンな画像が復元される。
ResUpNetはモデルに依存しないので、DNN構造を変更しない。
ResUpNetはPytorchでエンドツーエンドで訓練され、入力変換カテゴリの既存の防御技術と比較される。
提案手法は, FGSM, PGD, DDN などの敵攻撃に対する防御と, VGG-16, ResNet50, DenseNet121 のクリーンな画像上でのアキュラシーの維持を両立させる。
また,yチャネルのみの学習逆摂動が同一摂動量に対して高い騙し率をもたらすことを示す実験を行った。
関連論文リスト
- Evaluating Similitude and Robustness of Deep Image Denoising Models via
Adversarial Attack [60.40356882897116]
ディープニューラルネットワーク(DNN)は、従来の画像復調アルゴリズムよりも優れたパフォーマンスを示している。
本稿では,現在のディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディープ・ディナイジング・PGD(Denoising-PGD)と名づけられた敵攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-06-28T09:30:59Z) - LeNo: Adversarial Robust Salient Object Detection Networks with
Learnable Noise [7.794351961083746]
本稿では,SODモデルに対する敵攻撃に対する軽量Learnble Noise (LeNo)を提案する。
LeNoは、逆画像とクリーン画像の両方でSODモデルの精度を保ち、推論速度も保持する。
ヒトの視覚的注意機構の中心に触発されて、敵の攻撃に対する防御力を高めるために、交差した形状のガウス分布で浅い雑音を初期化する。
論文 参考訳(メタデータ) (2022-10-27T12:52:55Z) - Reverse Engineering of Imperceptible Adversarial Image Perturbations [43.87341855153572]
REDの問題を形式化し、REDのアプローチ設計に不可欠な原則のセットを特定します。
そこで我々は,CDD-RED と呼ばれる新しいクラス識別型Denoising RED フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-26T19:52:40Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Image Restoration by Deep Projected GSURE [115.57142046076164]
Ill-posed inverse problem は、デブロアリングや超解像など、多くの画像処理アプリケーションに現れる。
本稿では,一般化されたSteinUnbiased Risk Estimator(GSURE)の「投影変換」とCNNによる潜在画像のパラメータ化を含む損失関数の最小化に基づく,新たな画像復元フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-04T08:52:46Z) - Color Channel Perturbation Attacks for Fooling Convolutional Neural
Networks and A Defense Against Such Attacks [16.431689066281265]
Conalvolutional Neural Networks(CNN)は、強力なデータ依存型階層的特徴抽出方法として登場した。
ネットワークがトレーニングサンプルを非常に容易に満たしていることが観察される。
CNNを騙すために,カラーチャネル摂動(CCP)攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:35:29Z) - Boosting Gradient for White-Box Adversarial Attacks [60.422511092730026]
そこで本研究では,ADV-ReLUと呼ばれる,勾配に基づくホワイトボックス攻撃アルゴリズムの性能向上を目的とした,汎用的な逆例生成手法を提案する。
提案手法では,損失関数とネットワーク入力の勾配を算出し,その値をスコアにマップし,その一部を選択して誤導勾配を更新する。
論文 参考訳(メタデータ) (2020-10-21T02:13:26Z) - Increasing the Robustness of Semantic Segmentation Models with
Painting-by-Numbers [39.95214171175713]
我々は,物体の形状に対するネットワークバイアスを増大させることにより,出力を改善することができる画像分類からの洞察に基づいて構築する。
我々の基本的な考え方は、RGBトレーニング画像の一部を偽画像でアルファブレンドすることであり、各クラスラベルには、固定されたランダムに選択された色が与えられる。
各種ネットワークバックボーン,MobileNet-V2,ResNets,Xceptionを用いたDeepLabv3+のトレーニングスキーマの有効性を実証し,Cityscapesデータセットで評価した。
論文 参考訳(メタデータ) (2020-10-12T07:42:39Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - A Black-box Adversarial Attack Strategy with Adjustable Sparsity and
Generalizability for Deep Image Classifiers [16.951363298896638]
ブラックボックスの逆転摂動は現実世界のアプリケーションにとってより実用的である。
本稿では,有効普遍画素制限摂動を構成するためのDceitアルゴリズムを提案する。
Deceitを用いた画像の摂動は,約10%の画素しか持たないことが判明した。
論文 参考訳(メタデータ) (2020-04-24T19:42:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。