論文の概要: Color Channel Perturbation Attacks for Fooling Convolutional Neural
Networks and A Defense Against Such Attacks
- arxiv url: http://arxiv.org/abs/2012.14456v1
- Date: Sun, 20 Dec 2020 11:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:48:08.929746
- Title: Color Channel Perturbation Attacks for Fooling Convolutional Neural
Networks and A Defense Against Such Attacks
- Title(参考訳): 畳み込みニューラルネットワークのカラーチャネル摂動攻撃とその防御
- Authors: Jayendra Kantipudi, Shiv Ram Dubey, Soumendu Chakraborty
- Abstract要約: Conalvolutional Neural Networks(CNN)は、強力なデータ依存型階層的特徴抽出方法として登場した。
ネットワークがトレーニングサンプルを非常に容易に満たしていることが観察される。
CNNを騙すために,カラーチャネル摂動(CCP)攻撃を提案する。
- 参考スコア(独自算出の注目度): 16.431689066281265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Convolutional Neural Networks (CNNs) have emerged as a very powerful data
dependent hierarchical feature extraction method. It is widely used in several
computer vision problems. The CNNs learn the important visual features from
training samples automatically. It is observed that the network overfits the
training samples very easily. Several regularization methods have been proposed
to avoid the overfitting. In spite of this, the network is sensitive to the
color distribution within the images which is ignored by the existing
approaches. In this paper, we discover the color robustness problem of CNN by
proposing a Color Channel Perturbation (CCP) attack to fool the CNNs. In CCP
attack new images are generated with new channels created by combining the
original channels with the stochastic weights. Experiments were carried out
over widely used CIFAR10, Caltech256 and TinyImageNet datasets in the image
classification framework. The VGG, ResNet and DenseNet models are used to test
the impact of the proposed attack. It is observed that the performance of the
CNNs degrades drastically under the proposed CCP attack. Result show the effect
of the proposed simple CCP attack over the robustness of the CNN trained model.
The results are also compared with existing CNN fooling approaches to evaluate
the accuracy drop. We also propose a primary defense mechanism to this problem
by augmenting the training dataset with the proposed CCP attack. The
state-of-the-art performance using the proposed solution in terms of the CNN
robustness under CCP attack is observed in the experiments. The code is made
publicly available at
\url{https://github.com/jayendrakantipudi/Color-Channel-Perturbation-Attack}.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は非常に強力なデータ依存階層的特徴抽出手法として出現した。
いくつかのコンピュータビジョン問題で広く使われている。
CNNは、トレーニングサンプルから重要な視覚的特徴を自動で学習する。
ネットワークがトレーニングサンプルを非常に容易に満たしていることが観察される。
オーバーフィッティングを避けるためにいくつかの正規化方法が提案されている。
それにもかかわらず、ネットワークは、既存のアプローチによって無視される画像内の色分布に敏感である。
本稿では,CNNを騙すためにカラーチャネル摂動(CCP)攻撃を提案することで,CNNの色堅牢性の問題を明らかにする。
ccp攻撃では、元のチャネルと確率的重みを組み合わせた新しいチャネルで新しいイメージが生成される。
CIFAR10、Caltech256およびTinyImageNetデータセットを画像分類フレームワークで実験した。
VGG、ResNet、DenseNetモデルは、提案された攻撃の影響をテストするために使用される。
提案したCCP攻撃によりCNNの性能が大幅に低下することが観察された。
その結果、CNN訓練モデルの堅牢性に対する単純なCCP攻撃の効果が示された。
また, 精度低下を評価するために既存のCNN偽造手法と比較した。
また,提案したCCP攻撃を用いてトレーニングデータセットを増強することにより,この問題に対する防御機構を提案する。
CCP攻撃下でのCNNロバスト性の観点から,提案手法を用いた最先端性能を実験的に検証した。
コードは \url{https://github.com/jayendrakantipudi/Color-Channel-Perturbation-Attack} で公開されている。
関連論文リスト
- Color Equivariant Convolutional Networks [50.655443383582124]
CNNは、偶然に記録された条件によって導入された色の変化の間にデータ不均衡がある場合、苦労する。
カラースペクトル間の形状特徴共有を可能にする新しいディープラーニングビルディングブロックであるカラー等変畳み込み(CEConvs)を提案する。
CEConvsの利点は、様々なタスクに対するダウンストリーム性能と、列車-テストの分散シフトを含む色の変化に対するロバスト性の改善である。
論文 参考訳(メタデータ) (2023-10-30T09:18:49Z) - Deeply Explain CNN via Hierarchical Decomposition [75.01251659472584]
コンピュータビジョンにおいて、CNNの説明に寄与するいくつかの手法は、中間的特徴がネットワーク予測にどのように影響するかを研究する。
本稿では,CNNの意思決定過程をトップダウンで説明する階層的な分解フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-23T07:56:04Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Exploiting Vulnerability of Pooling in Convolutional Neural Networks by
Strict Layer-Output Manipulation for Adversarial Attacks [7.540176446791261]
畳み込みニューラルネットワーク(CNN)は、インテリジェント車両などの移動ロボットにますます適用されています。
ロボットアプリケーションにおけるCNNのセキュリティは重要な問題であり、CNNに対する潜在的な敵対攻撃は研究に値する。
本稿では,ネットワーク構造の観点から,プールの脆弱性を調査し,活用することで,CNNに対する敵対攻撃を行う。
論文 参考訳(メタデータ) (2020-12-21T15:18:41Z) - Homography Estimation with Convolutional Neural Networks Under
Conditions of Variance [0.0]
畳み込みニューラルネットワーク(CNN)を用いた最近の2つの手法の性能解析を行った。
CNNは、ノイズに対してより堅牢であるように訓練できるが、ノイズのないケースでは精度が低い。
我々は,CNNを特定の音の大きさに訓練すると,CNNが最高の性能を示す騒音レベルに対して,Goldilocks Zoneが生じることを示す。
論文 参考訳(メタデータ) (2020-10-02T15:11:25Z) - Shape Defense Against Adversarial Attacks [47.64219291655723]
人間は物体を認識するために形状情報に大きく依存している。逆に、畳み込みニューラルネットワーク(CNN)はテクスチャに偏っている。
本稿では, 形状バイアスをCNNに組み込んで, 頑健性を向上させる方法について検討する。
2つのアルゴリズムが提案され、エッジが適度な知覚不能な摂動に不変であるという観測に基づいている。
論文 参考訳(メタデータ) (2020-08-31T03:23:59Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - A CNN With Multi-scale Convolution for Hyperspectral Image
Classification using Target-Pixel-Orientation scheme [2.094821665776961]
CNNは、ハイパースペクトル画像分類の課題に対処する一般的な選択肢である。
本稿では,CNNベースのネットワークをトレーニングするために,新たなターゲットパッチ指向手法を提案する。
また、3D-CNNと2D-CNNベースのネットワークアーキテクチャのハイブリッドを導入し、帯域削減と特徴抽出手法を実装した。
論文 参考訳(メタデータ) (2020-01-30T07:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。