論文の概要: Strengthening the Training of Convolutional Neural Networks By Using
Walsh Matrix
- arxiv url: http://arxiv.org/abs/2104.00035v1
- Date: Wed, 31 Mar 2021 18:06:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:32:23.150635
- Title: Strengthening the Training of Convolutional Neural Networks By Using
Walsh Matrix
- Title(参考訳): ウォルシュマトリックスを用いた畳み込みニューラルネットワークのトレーニング強化
- Authors: Tamer \"Olmez and Z\"umray Dokur
- Abstract要約: 分類性能を向上させるため,DNNのトレーニングと構造を変更した。
畳み込みニューラルネットワーク(CNN)の最後の層に続く最小距離ネットワーク(MDN)が分類器として使用される。
異なる領域では、ノード数が少ないDivFEを使用することでより高い分類性能が得られたことが観察されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: DNN structures are continuously developing and achieving high performances in
classification problems. Also, it is observed that success rates obtained with
DNNs are higher than those obtained with traditional neural networks. In
addition, one of the advantages of DNNs is that there is no need to spend an
extra effort to determine the features; the CNN automatically extracts the
features from the dataset during the training. Besides their benefits, the DNNs
have the following three major drawbacks among the others: (i) Researchers have
struggled with over-fitting and under-fitting issues in the training of DNNs,
(ii) determination of even a coarse structure for the DNN may take days, and
(iii) most of the time, the proposed network structure is too large to be too
bulky to be used in real time applications. We have modified the training and
structure of DNN to increase the classification performance, to decrease the
number of nodes in the structure, and to be used with less number of hyper
parameters. A minimum distance network (MDN) following the last layer of the
convolutional neural network (CNN) is used as the classifier instead of a fully
connected neural network (FCNN). In order to strengthen the training of the
CNN, we suggest employing Walsh function. We tested the performances of the
proposed DNN (named as DivFE) on the classification of ECG, EEG, heart sound,
detection pneumonia in X-ray chest images, detection of BGA solder defects, and
patterns of benchmark datasets (MNIST, IRIS, CIFAR10 and CIFAR20). In different
areas, it has been observed that a higher classification performance was
obtained by using the DivFE with less number of nodes.
- Abstract(参考訳): DNN構造は、分類問題における高い性能を継続的に開発し、達成している。
また、DNNで得られた成功率は従来のニューラルネットワークで得られた成功率よりも高いことが観察された。
さらに、DNNの利点の1つは、機能を決定するのに余分な労力を費やす必要がないことである。
i)研究者は、DNNのトレーニングにおいて過度に適合し、不適当な問題に悩まされ、(ii)DNNの粗い構造さえ決定するのに数日かかる可能性があり、(iii)ほとんどの場合、提案されたネットワーク構造は、リアルタイムアプリケーションで使用されるには大きすぎる。
我々は、DNNのトレーニングと構造を変更し、分類性能を高め、構造中のノード数を減らし、ハイパーパラメータを減らして使用できるようにした。
完全連結ニューラルネットワーク(FCNN)の代わりに、畳み込みニューラルネットワーク(CNN)の最終層に続く最小距離ネットワーク(MDN)が分類器として使用される。
CNNのトレーニングを強化するため,Walsh関数の利用を提案する。
我々は,心電図,脳波,心臓音,X線胸部画像中の肺炎の検出,BGAはんだ欠陥の検出,ベンチマークデータセット(MNIST,IRIS,CIFAR10,CIFAR20)のパターンについて,提案したDNN(DivFE)の性能を検証した。
異なる分野では、ノード数が少ないDivFEを使用することで、より高い分類性能が得られた。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - BKDSNN: Enhancing the Performance of Learning-based Spiking Neural Networks Training with Blurred Knowledge Distillation [20.34272550256856]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークを模倣し、離散スパイクを介して情報を伝達する。
本研究は,静的およびニューロモルフィックなデータセット上でSNNをトレーニングするための最先端性能を実現する。
論文 参考訳(メタデータ) (2024-07-12T08:17:24Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - Examining the Robustness of Spiking Neural Networks on Non-ideal
Memristive Crossbars [4.184276171116354]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本研究では,SNNの性能に及ぼすクロスバー非理想性と本質性の影響について検討した。
論文 参考訳(メタデータ) (2022-06-20T07:07:41Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - Pruning of Deep Spiking Neural Networks through Gradient Rewiring [41.64961999525415]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とニューロモルフィックチップの高エネルギー効率により、非常に重要視されている。
ほとんどの既存の方法は、ANNsとSNNsの違いを無視するSNNsに人工ニューラルネットワーク(ANNs)のプルーニングアプローチを直接適用する。
本稿では,ネットワーク構造を無訓練でシームレスに最適化可能な,snsの接続性と重み付けの合同学習アルゴリズムgradle rewiring (gradr)を提案する。
論文 参考訳(メタデータ) (2021-05-11T10:05:53Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。