論文の概要: ASU-CNN: An Efficient Deep Architecture for Image Classification and
Feature Visualizations
- arxiv url: http://arxiv.org/abs/2305.19146v1
- Date: Sun, 28 May 2023 16:52:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-31 15:24:51.109237
- Title: ASU-CNN: An Efficient Deep Architecture for Image Classification and
Feature Visualizations
- Title(参考訳): ASU-CNN:画像分類と特徴可視化のための効率的なディープアーキテクチャ
- Authors: Jamshaid Ul Rahman, Faiza Makhdoom, Dianchen Lu
- Abstract要約: 活性化関数はディープニューラルネットワークの能力を決定する上で決定的な役割を果たす。
本稿では,ASU-CNNと呼ばれる畳み込みニューラルネットワークモデルを提案する。
ネットワークは、CIFAR-10の分類のためのトレーニングデータとテストデータの両方において有望な結果を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Activation functions play a decisive role in determining the capacity of Deep
Neural Networks as they enable neural networks to capture inherent
nonlinearities present in data fed to them. The prior research on activation
functions primarily focused on the utility of monotonic or non-oscillatory
functions, until Growing Cosine Unit broke the taboo for a number of
applications. In this paper, a Convolutional Neural Network model named as
ASU-CNN is proposed which utilizes recently designed activation function ASU
across its layers. The effect of this non-monotonic and oscillatory function is
inspected through feature map visualizations from different convolutional
layers. The optimization of proposed network is offered by Adam with a
fine-tuned adjustment of learning rate. The network achieved promising results
on both training and testing data for the classification of CIFAR-10. The
experimental results affirm the computational feasibility and efficacy of the
proposed model for performing tasks related to the field of computer vision.
- Abstract(参考訳): 活性化関数はディープニューラルネットワークの能力を決定する上で決定的な役割を果たす。
アクティベーション関数に関する以前の研究は、主にモノトニックまたは非振動関数の効用に焦点を当てていたが、Growing Cosine Unitが多くのアプリケーションでタブーを破るまで続いた。
本稿では,最近設計されたアクティベーション関数 asu を利用した畳み込みニューラルネットワークモデルである asu-cnn を提案する。
この非単調および振動関数の効果は、異なる畳み込み層から特徴写像の可視化を通して検証される。
提案するネットワークの最適化はAdam氏が学習率の微調整で提供する。
ネットワークはcifar-10の分類のためのトレーニングとテストの両方で有望な結果を得た。
実験により,コンピュータビジョンの分野に関するタスクを実行するためのモデルの有効性と有効性を確認した。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - DCNN: Dual Cross-current Neural Networks Realized Using An Interactive Deep Learning Discriminator for Fine-grained Objects [48.65846477275723]
本研究では、微細な画像分類の精度を向上させるために、新しい二重電流ニューラルネットワーク(DCNN)を提案する。
弱い教師付き学習バックボーンモデルを構築するための新しい特徴として、(a)異種データの抽出、(b)特徴マップの解像度の維持、(c)受容領域の拡大、(d)グローバル表現と局所特徴の融合などがある。
論文 参考訳(メタデータ) (2024-05-07T07:51:28Z) - ENN: A Neural Network with DCT Adaptive Activation Functions [2.2713084727838115]
離散コサイン変換(DCT)を用いて非線形活性化関数をモデル化する新しいモデルであるExpressive Neural Network(ENN)を提案する。
このパラメータ化は、トレーニング可能なパラメータの数を低く保ち、勾配ベースのスキームに適合し、異なる学習タスクに適応する。
ENNのパフォーマンスは、いくつかのシナリオにおいて40%以上の精度のギャップを提供する、アートベンチマークの状態を上回ります。
論文 参考訳(メタデータ) (2023-07-02T21:46:30Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Network Comparison Study of Deep Activation Feature Discriminability
with Novel Objects [0.5076419064097732]
最先端のコンピュータビジョンアルゴリズムは、Deep Neural Networks(DNN)を特徴抽出に取り入れ、Deep Convolutional Activation Features(DeCAF)を作成する。
本研究では、6つの主要な視覚認識DNNアーキテクチャのDeCAF空間に符号化された新しい物体の視覚的外観の一般的な識別可能性について分析する。
論文 参考訳(メタデータ) (2022-02-08T07:40:53Z) - CRNNTL: convolutional recurrent neural network and transfer learning for
QSAR modelling [4.090810719630087]
本稿では,QSARモデリングのための畳み込みリカレントニューラルネットワークと伝達学習(CRNNTL)を提案する。
我々の戦略は、特徴抽出のための畳み込みニューラルネットワークと繰り返しニューラルネットワークの両方の利点と、データ拡張手法の利点を生かしている。
論文 参考訳(メタデータ) (2021-09-07T20:04:55Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Neural Network Structure Design based on N-Gauss Activation Function [0.2578242050187029]
我々は、MNIST、CIFAR10、CIFAR100を訓練するために、コアブロックN-Gauss、N-Gauss、Swishニューラルネットワーク構造設計を導入する。
N-Gaussは、深い畳み込みニューラルネットワークが階層的な非線形マッピング学習能力を持つように、活性化関数の非線形モデリングの主要な役割を果たす。
論文 参考訳(メタデータ) (2021-06-01T11:16:37Z) - Implementing a foveal-pit inspired filter in a Spiking Convolutional
Neural Network: a preliminary study [0.0]
我々は,網膜卵管刺激によるガウスフィルタとランク順符号化の差異を取り入れたスポーキング畳み込みニューラルネットワーク(SCNN)を提示した。
このモデルは、Nengoライブラリーで実装されているように、スパイキングニューロンで動作するように適応されたバックプロパゲーションアルゴリズムの変種を用いて訓練される。
ネットワークは最大90%の精度で達成され、損失はクロスエントロピー関数を用いて計算される。
論文 参考訳(メタデータ) (2021-05-29T15:28:30Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。