論文の概要: Wavelet-Attention CNN for Image Classification
- arxiv url: http://arxiv.org/abs/2201.09271v1
- Date: Sun, 23 Jan 2022 14:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 15:50:33.623150
- Title: Wavelet-Attention CNN for Image Classification
- Title(参考訳): wavelet-attention cnnによる画像分類
- Authors: Zhao Xiangyu
- Abstract要約: 画像分類のためのWavelet-Attention Convolutional Neural Network (WA-CNN)を提案する。
WA-CNNは、基本オブジェクトの構造を保存するために、特徴マップを低周波および高周波のコンポーネントに分解する。
提案するWA-CNNは,他のネットワークと比較して,分類精度の大幅な向上を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The feature learning methods based on convolutional neural network (CNN) have
successfully produced tremendous achievements in image classification tasks.
However, the inherent noise and some other factors may weaken the effectiveness
of the convolutional feature statistics. In this paper, we investigate Discrete
Wavelet Transform (DWT) in the frequency domain and design a new
Wavelet-Attention (WA) block to only implement attention in the high-frequency
domain. Based on this, we propose a Wavelet-Attention convolutional neural
network (WA-CNN) for image classification. Specifically, WA-CNN decomposes the
feature maps into low-frequency and high-frequency components for storing the
structures of the basic objects, as well as the detailed information and noise,
respectively. Then, the WA block is leveraged to capture the detailed
information in the high-frequency domain with different attention factors but
reserves the basic object structures in the low-frequency domain. Experimental
results on CIFAR-10 and CIFAR-100 datasets show that our proposed WA-CNN
achieves significant improvements in classification accuracy compared to other
related networks. Specifically, based on MobileNetV2 backbones, WA-CNN achieves
1.26% Top-1 accuracy improvement on the CIFAR-10 benchmark and 1.54% Top-1
accuracy improvement on the CIFAR-100 benchmark.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)に基づく特徴学習手法は,画像分類タスクにおいて大きな成果を上げている。
しかし、固有雑音や他の要因は畳み込み特徴統計の有効性を弱める可能性がある。
本稿では,周波数領域における離散ウェーブレット変換(dwt)について検討し,高周波領域にのみ注目する新しいウェーブレット・アテンション(wa)ブロックを設計する。
これに基づいて、画像分類のためのWavelet-Attention Convolutional Neural Network (WA-CNN)を提案する。
具体的には、wa-cnnは特徴マップを低周波成分と高周波成分に分解し、基本オブジェクトの構造と詳細な情報とノイズをそれぞれ格納する。
次に、WAブロックを利用して、注目要因が異なる高周波領域の詳細な情報をキャプチャするが、低周波領域の基本オブジェクト構造を予約する。
CIFAR-10とCIFAR-100データセットによる実験結果から,提案したWA-CNNは,他のネットワークと比較して,分類精度を大幅に向上することが示された。
具体的には、MobileNetV2のバックボーンに基づいて、WA-CNNはCIFAR-10ベンチマークで1.26%のTop-1精度、CIFAR-100ベンチマークで1.54%のTop-1精度改善を達成した。
関連論文リスト
- FE-UNet: Frequency Domain Enhanced U-Net with Segment Anything Capability for Versatile Image Segmentation [50.9040167152168]
CNNのコントラスト感度関数を実験的に定量化し,人間の視覚システムと比較した。
本稿ではウェーブレット誘導分光ポーリングモジュール(WSPM)を提案する。
人間の視覚系をさらにエミュレートするために、周波数領域拡張受容野ブロック(FE-RFB)を導入する。
本研究では,SAM2 をバックボーンとし,Hiera-Large を事前学習ブロックとして組み込んだ FE-UNet を開発した。
論文 参考訳(メタデータ) (2025-02-06T07:24:34Z) - DCNN: Dual Cross-current Neural Networks Realized Using An Interactive Deep Learning Discriminator for Fine-grained Objects [48.65846477275723]
本研究では、微細な画像分類の精度を向上させるために、新しい二重電流ニューラルネットワーク(DCNN)を提案する。
弱い教師付き学習バックボーンモデルを構築するための新しい特徴として、(a)異種データの抽出、(b)特徴マップの解像度の維持、(c)受容領域の拡大、(d)グローバル表現と局所特徴の融合などがある。
論文 参考訳(メタデータ) (2024-05-07T07:51:28Z) - Multi-stage image denoising with the wavelet transform [125.2251438120701]
深部畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、正確な構造情報を自動マイニングすることで、画像の復調に使用される。
動的畳み込みブロック(DCB)、2つのカスケードウェーブレット変換および拡張ブロック(WEB)、残留ブロック(RB)の3段階を経由した、MWDCNNによるCNNの多段階化を提案する。
論文 参考訳(メタデータ) (2022-09-26T03:28:23Z) - Synthetic Aperture Radar Image Change Detection via Layer
Attention-Based Noise-Tolerant Network [36.860069663770226]
レイヤアテンションに基づく耐雑音性ネットワークLANTNetを提案する。
特に、異なる畳み込み層の機能を適応的に重み付けするレイヤーアテンションモジュールを設計する。
3つのSARデータセットの実験結果から,提案したLANTNetは,複数の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-09T01:04:39Z) - Hierarchical Spherical CNNs with Lifting-based Adaptive Wavelets for
Pooling and Unpooling [101.72318949104627]
本稿では, 階層型畳み込みニューラルネットワーク(HS-CNN)の新たな枠組みを提案し, プールやアンプールのための適応球面ウェーブレットを学習する。
LiftHS-CNNは、画像レベルのタスクとピクセルレベルのタスクの両方において、より効率的な階層的特徴学習を実現する。
論文 参考訳(メタデータ) (2022-05-31T07:23:42Z) - WaveCNet: Wavelet Integrated CNNs to Suppress Aliasing Effect for
Noise-Robust Image Classification [41.94702591058716]
畳み込みニューラルネットワーク(CNN)はノイズを遮断する傾向がある。
我々は、共通のダウンサンプリングを離散ウェーブレット変換(DWT)に置き換えることで、CNNとウェーブレットを統合することを試みる。
我々はまた、ImageNet、ImageNet-C、および6つの敵攻撃のノイズバージョンでWaveCNetsの性能を検証した。
論文 参考訳(メタデータ) (2021-07-28T12:59:15Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Wavelet Integrated CNNs for Noise-Robust Image Classification [51.18193090255933]
我々は、離散ウェーブレット変換(DWT)により、最大プール、ストライド畳み込み、平均プールを置き換えることでCNNを強化する。
VGG、ResNets、DenseNetのウェーブレット統合バージョンであるWaveCNetsは、バニラバージョンよりも精度が高く、ノイズ・ロバスト性も向上している。
論文 参考訳(メタデータ) (2020-05-07T09:10:41Z) - Learning in the Frequency Domain [20.045740082113845]
精度を損なわずに除去できる自明な周波数成分を同定する学習ベース周波数選択法を提案する。
実験の結果,静的チャネル選択を用いた周波数領域での学習は,従来の空間ダウンサンプリング手法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2020-02-27T19:57:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。