論文の概要: Edge Detectors Can Make Deep Convolutional Neural Networks More Robust
- arxiv url: http://arxiv.org/abs/2402.16479v1
- Date: Mon, 26 Feb 2024 10:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:45:00.055025
- Title: Edge Detectors Can Make Deep Convolutional Neural Networks More Robust
- Title(参考訳): エッジ検出器は、深い畳み込みニューラルネットワークをより堅牢にする
- Authors: Jin Ding, Jie-Chao Zhao, Yong-Zhi Sun, Ping Tan, Jia-Wei Wang, Ji-En
Ma, You-Tong Fang
- Abstract要約: 本稿では、まずエッジ検出器をレイヤカーネルとして使用し、バイナリエッジ特徴分枝(BEFB)を設計し、バイナリエッジ特徴を学習する。
BEFB統合モデルの精度は、FGSM、PGD、C&W攻撃に直面する場合、すべてのデータセットのオリジナルのモデルよりも優れている。
本研究は,DCNNの形状的特徴とテクスチャ的特徴を組み合わせることで,DCNNの堅牢性を高めることができることを示す。
- 参考スコア(独自算出の注目度): 27.169126036031933
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep convolutional neural networks (DCNN for short) are vulnerable to
examples with small perturbations. Improving DCNN's robustness is of great
significance to the safety-critical applications, such as autonomous driving
and industry automation. Inspired by the principal way that human eyes
recognize objects, i.e., largely relying on the shape features, this paper
first employs the edge detectors as layer kernels and designs a binary edge
feature branch (BEFB for short) to learn the binary edge features, which can be
easily integrated into any popular backbone. The four edge detectors can learn
the horizontal, vertical, positive diagonal, and negative diagonal edge
features, respectively, and the branch is stacked by multiple Sobel layers
(using edge detectors as kernels) and one threshold layer. The binary edge
features learned by the branch, concatenated with the texture features learned
by the backbone, are fed into the fully connected layers for classification. We
integrate the proposed branch into VGG16 and ResNet34, respectively, and
conduct experiments on multiple datasets. Experimental results demonstrate the
BEFB is lightweight and has no side effects on training. And the accuracy of
the BEFB integrated models is better than the original ones on all datasets
when facing FGSM, PGD, and C\&W attacks. Besides, BEFB integrated models
equipped with the robustness enhancing techniques can achieve better
classification accuracy compared to the original models. The work in this paper
for the first time shows it is feasible to enhance the robustness of DCNNs
through combining both shape-like features and texture features.
- Abstract(参考訳): 深層畳み込みニューラルネットワーク(DCNN: Deep Convolutional Neural Network)は、小さな摂動の例に弱い。
DCNNの堅牢性を改善することは、自律運転や産業自動化といった安全クリティカルなアプリケーションにとって非常に重要である。
人間の目が物体を認識する主な方法、すなわち形状の特徴に大きく依存することから着想を得た本論文では、まずエッジ検出器を層核として使用し、バイナリエッジ特徴分岐(BEFB)を設計して、一般的なバックボーンに容易に組み込めるようにした。
4つのエッジ検出器はそれぞれ水平、垂直、正の対角、負の対角のエッジの特徴を学習でき、分岐は複数のソベル層(エッジ検出器をカーネルとして使用)と1つのしきい値層で積み重ねられる。
分岐によって学習されたバイナリエッジ特徴は、バックボーンによって学習されたテクスチャ特徴と結合し、完全に接続された層に入力され、分類される。
提案するブランチをvgg16とresnet34にそれぞれ統合し,複数のデータセットで実験を行う。
実験の結果、BEFBは軽量であり、トレーニングに副作用がないことが示された。
そして、BEFB統合モデルの精度は、FGSM、PGD、C\&W攻撃に直面しているすべてのデータセットのオリジナルのモデルよりも優れている。
さらに、ロバスト性向上技術を備えたBEFB統合モデルにより、元のモデルよりも優れた分類精度が得られる。
本論文は, 形状的特徴とテクスチャ的特徴を組み合わせることで, DCNNの強靭性を高めることができることを示す。
関連論文リスト
- Differentiable Weightless Neural Networks [1.453874055504475]
本稿では,相互接続型ルックアップテーブルに基づくモデルであるDWNを提案する。
本稿では,これらのモデルの精度と効率をさらに向上させるために,学習可能なマッピング,学習可能なリダクション,スペクトル正規化を提案する。
論文 参考訳(メタデータ) (2024-10-14T21:43:48Z) - DCNN: Dual Cross-current Neural Networks Realized Using An Interactive Deep Learning Discriminator for Fine-grained Objects [48.65846477275723]
本研究では、微細な画像分類の精度を向上させるために、新しい二重電流ニューラルネットワーク(DCNN)を提案する。
弱い教師付き学習バックボーンモデルを構築するための新しい特徴として、(a)異種データの抽出、(b)特徴マップの解像度の維持、(c)受容領域の拡大、(d)グローバル表現と局所特徴の融合などがある。
論文 参考訳(メタデータ) (2024-05-07T07:51:28Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - Improving the Robustness of Deep Convolutional Neural Networks Through
Feature Learning [23.5067878531607]
深層畳み込みニューラルネットワーク(DCNN: Deep Convolutional Neural Network)モデルは、小さな摂動のある例に対して脆弱である。
逆トレーニング(略してAT)は、データ拡張によるDCNNモデルの堅牢性を高めるために広く用いられている手法である。
本稿では,どのバックボーンにも組み込むことのできる浅いバイナリ機能モジュール(略してSBFM)を提案する。
論文 参考訳(メタデータ) (2023-03-11T15:22:29Z) - Visual Recognition with Deep Nearest Centroids [57.35144702563746]
我々は、概念的にエレガントで驚くほど効果的な大規模視覚認識ネットワークである深部セントロイド(DNC)を考案した。
パラメトリックと比較すると、DNCは画像分類(CIFAR-10, ImageNet)に優れ、画像認識(ADE20K, Cityscapes)を大いに起動する。
論文 参考訳(メタデータ) (2022-09-15T15:47:31Z) - Towards Disentangling Information Paths with Coded ResNeXt [11.884259630414515]
ネットワーク全体の機能の透明性を高めるために,我々は新しいアプローチを採っている。
分類のためのニューラルネットワークアーキテクチャを提案し、各クラスに関連する情報が特定の経路を流れる。
論文 参考訳(メタデータ) (2022-02-10T21:45:49Z) - Revisiting Edge Detection in Convolutional Neural Networks [3.5281112495479245]
ニューラルネットワークの第1畳み込み層においてエッジを適切に表現することはできないことを示す。
エッジ検出ユニットを提案し,性能損失を低減し,定性的に異なる表現を生成することを示す。
論文 参考訳(メタデータ) (2020-12-25T13:53:04Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Traditional Method Inspired Deep Neural Network for Edge Detection [7.125116757822889]
最小限の複雑さで優れたエッジを生成するために,従来の手法にインスパイアされたフレームワークを提案する。
我々のTIN2(Traditional Inspired Network)モデルは、最近のBDCN2(Bi-Directional Cascade Network)よりも精度が高いが、より小さいモデルである。
論文 参考訳(メタデータ) (2020-05-28T09:20:37Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。