論文の概要: DA$^{\textbf{2}}$-Net : Diverse & Adaptive Attention Convolutional
Neural Network
- arxiv url: http://arxiv.org/abs/2111.13157v1
- Date: Thu, 25 Nov 2021 16:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 15:29:53.212510
- Title: DA$^{\textbf{2}}$-Net : Diverse & Adaptive Attention Convolutional
Neural Network
- Title(参考訳): da$^{\textbf{2}}$-net : 多様な適応的注意畳み込みニューラルネットワーク
- Authors: Abenezer Girma, Abdollah Homaifar, M Nabil Mahmoud, Xuyang Yan and
Mrinmoy Sarkar
- Abstract要約: DA$2$-Netは、フィードフォワードCNNが多様な機能を明示的にキャプチャし、ネットワークのパフォーマンスを効果的に向上させるために最も有益な機能を適応的に選択し、強調することを可能にする。
CIFAR100,SVHN,ImageNetなど,ベンチマークデータセット上でDA$2$-Netを広範囲に評価した。
- 参考スコア(独自算出の注目度): 0.6999740786886536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard Convolutional Neural Network (CNN) designs rarely focus on the
importance of explicitly capturing diverse features to enhance the network's
performance. Instead, most existing methods follow an indirect approach of
increasing or tuning the networks' depth and width, which in many cases
significantly increases the computational cost. Inspired by a biological visual
system, we propose a Diverse and Adaptive Attention Convolutional Network
(DA$^{2}$-Net), which enables any feed-forward CNNs to explicitly capture
diverse features and adaptively select and emphasize the most informative
features to efficiently boost the network's performance. DA$^{2}$-Net incurs
negligible computational overhead and it is designed to be easily integrated
with any CNN architecture. We extensively evaluated DA$^{2}$-Net on benchmark
datasets, including CIFAR100, SVHN, and ImageNet, with various CNN
architectures. The experimental results show DA$^{2}$-Net provides a
significant performance improvement with very minimal computational overhead.
- Abstract(参考訳): 標準畳み込みニューラルネットワーク(cnn)の設計は、ネットワークの性能を向上させるために、様々な特徴を明示的に捉えることの重要性にほとんど焦点を合わせない。
その代わり、既存の手法の多くは、ネットワークの深さと幅を増加または調整する間接的アプローチに従い、多くの場合、計算コストを大幅に増加させる。
生体視覚システムに触発されて,任意のフィードフォワード型cnnが明示的に多様な特徴を捕捉し,最も有用な特徴を適応的に選択・強調することにより,ネットワークの性能を効率的に向上させることができる,多様で適応的な注意畳み込みネットワーク(da$^{2}$-net)を提案する。
da$^{2}$-netは計算オーバーヘッドを負い、任意のcnnアーキテクチャと容易に統合できるように設計されている。
CIFAR100,SVHN,ImageNetなど,ベンチマークデータセット上でDA$^{2}$-NetをさまざまなCNNアーキテクチャで広範囲に評価した。
実験の結果,DA$^{2}$-Netは計算オーバーヘッドを極小に抑え,大幅な性能向上を実現している。
関連論文リスト
- CTA-Net: A CNN-Transformer Aggregation Network for Improving Multi-Scale Feature Extraction [14.377544481394013]
CTA-NetはCNNとViTを組み合わせて、長距離依存関係をキャプチャするトランスフォーマーと、ローカライズされた特徴を抽出するCNNを備えている。
この統合により、詳細なローカルおよびより広いコンテキスト情報の効率的な処理が可能になる。
10万以上のサンプルを持つ小規模データセットの実験は、CTA-Netが優れたパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2024-10-15T09:27:26Z) - Multiscale Low-Frequency Memory Network for Improved Feature Extraction
in Convolutional Neural Networks [13.815116154370834]
本稿では,Multiscale Low-Frequency Memory (MLFM) Networkを提案する。
MLFMは低周波情報を効率よく保存し、目標とするコンピュータビジョンタスクの性能を向上させる。
我々の研究は、既存のCNN基盤の上に構築され、コンピュータビジョンの今後の進歩の道を開く。
論文 参考訳(メタデータ) (2024-03-13T00:48:41Z) - Enhancing Small Object Encoding in Deep Neural Networks: Introducing
Fast&Focused-Net with Volume-wise Dot Product Layer [0.0]
我々は、小さなオブジェクトを固定長特徴ベクトルに符号化するのに適した、新しいディープニューラルネットワークアーキテクチャであるFast&Focused-Netを紹介する。
Fast&Focused-Netは、CNNのいくつかの固有の制限に対処するために設計された、新たに提案された一連のレイヤであるVDP(Volume-wise Dot Product)レイヤを採用しています。
CIFAR-10, CIFAR-100, STL-10, SVHN-Cropped, Fashion-MNISTなどのデータセットでは, オブジェクト分類タスクにおいて, ネットワークが最先端の手法よりも優れていた。
画像分類における変換器エンコーダ(ViT)と組み合わせた場合
論文 参考訳(メタデータ) (2024-01-18T09:31:25Z) - A Faster Approach to Spiking Deep Convolutional Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、現在のディープニューラルネットワークよりも脳に近いダイナミクスを持つ。
ネットワークのランタイムと精度を改善するために,従来の作業に基づくネットワーク構造を提案する。
論文 参考訳(メタデータ) (2022-10-31T16:13:15Z) - Towards a General Purpose CNN for Long Range Dependencies in
$\mathrm{N}$D [49.57261544331683]
構造変化のない任意の解像度,次元,長さのタスクに対して,連続的な畳み込みカーネルを備えた単一CNNアーキテクチャを提案する。
1$mathrmD$)とビジュアルデータ(2$mathrmD$)の幅広いタスクに同じCCNNを適用することで、我々のアプローチの汎用性を示す。
私たちのCCNNは競争力があり、検討されたすべてのタスクで現在の最先端を上回ります。
論文 参考訳(メタデータ) (2022-06-07T15:48:02Z) - CondenseNeXt: An Ultra-Efficient Deep Neural Network for Embedded
Systems [0.0]
畳み込みニューラルネットワーク(英: Convolutional Neural Network, CNN)は、画像センサが捉えた視覚画像の分析に広く用いられているディープニューラルネットワーク(DNN)のクラスである。
本稿では,組込みシステム上でのリアルタイム推論のために,既存のCNNアーキテクチャの性能を改善するために,深層畳み込みニューラルネットワークアーキテクチャの新しい変種を提案する。
論文 参考訳(メタデータ) (2021-12-01T18:20:52Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - High-Capacity Expert Binary Networks [56.87581500474093]
ネットワークバイナライゼーションは、効率的なディープモデルを作成するための、ハードウェア対応の有望な方向性である。
メモリと計算上の優位性にもかかわらず、バイナリモデルとその実数値モデルの間の精度のギャップを縮めることは、未解決の課題である。
本稿では,入力特徴に基づく時間に1つのデータ固有のエキスパートバイナリフィルタを選択することを学習することで,初めてバイナリネットワークに条件付きコンピューティングを適合させる専門家バイナリ畳み込みを提案する。
論文 参考訳(メタデータ) (2020-10-07T17:58:10Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。