論文の概要: A Faster Approach to Spiking Deep Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2210.17442v1
- Date: Mon, 31 Oct 2022 16:13:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:54:29.280245
- Title: A Faster Approach to Spiking Deep Convolutional Neural Networks
- Title(参考訳): 深層畳み込みニューラルネットワークの高速化
- Authors: Shahriar Rezghi Shirsavar (University of Tehran, Iran), Mohammad-Reza
A. Dehaqani (University of Tehran, Iran)
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、現在のディープニューラルネットワークよりも脳に近いダイナミクスを持つ。
ネットワークのランタイムと精度を改善するために,従来の作業に基づくネットワーク構造を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking neural networks (SNNs) have closer dynamics to the brain than current
deep neural networks. Their low power consumption and sample efficiency make
these networks interesting. Recently, several deep convolutional spiking neural
networks have been proposed. These networks aim to increase biological
plausibility while creating powerful tools to be applied to machine learning
tasks. Here, we suggest a network structure based on previous work to improve
network runtime and accuracy. Improvements to the network include reducing
training iterations to only once, effectively using principal component
analysis (PCA) dimension reduction, weight quantization, timed outputs for
classification, and better hyperparameter tuning. Furthermore, the
preprocessing step is changed to allow the processing of colored images instead
of only black and white to improve accuracy. The proposed structure
fractionalizes runtime and introduces an efficient approach to deep
convolutional SNNs.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、現在のディープニューラルネットワークよりも脳に近いダイナミクスを持つ。
その低消費電力とサンプル効率はこれらのネットワークを興味深いものにしている。
近年,いくつかの深部畳み込み型ニューラルネットワークが提案されている。
これらのネットワークは、機械学習タスクに適用できる強力なツールを作成しながら、生物学的な可能性を高めることを目指している。
本稿では,ネットワークのランタイムと精度を改善するために,従来の作業に基づくネットワーク構造を提案する。
ネットワークの改善には、トレーニングイテレーションを1回だけ削減すること、主成分分析(PCA)次元の削減、重み量子化、分類のためのタイムドアウトプット、高パラメータチューニングの改善などが含まれる。
さらに、前処理ステップを変更して、白黒のみでなく色付き画像の処理を可能とし、精度を向上させる。
提案した構造はランタイムを分数化し、深層畳み込みSNNへの効率的なアプローチを導入する。
関連論文リスト
- Exploring Neural Network Pruning with Screening Methods [3.443622476405787]
現代のディープラーニングモデルは数千万のパラメータを持ち、推論プロセスはリソース集約化されている。
本稿では,非必須パラメータを除去するネットワーク・プルーニング・フレームワークの提案と評価を行う。
提案するフレームワークは,従来のネットワークと比較して,競争力のあるリーンネットワークを生成する。
論文 参考訳(メタデータ) (2025-02-11T02:31:04Z) - When less is more: evolving large neural networks from small ones [0.0]
トレーニング中にノードを追加(または減算)できる小型でダイナミックなフィードフォワードニューラルネットワークについて検討する。
ネットワーク内の1つのニューロンの重みがネットワークのサイズを制御し、重み自体が同じ勾配差アルゴリズムによって最適化される。
我々は、非線形回帰および分類タスクに基づいて、そのようなニンブルニューラルネットワークを訓練し、評価し、対応する静的ネットワークより優れる。
論文 参考訳(メタデータ) (2025-01-29T21:56:38Z) - Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Efficient and Flexible Method for Reducing Moderate-size Deep Neural Networks with Condensation [36.41451383422967]
科学的応用において、ニューラルネットワークのスケールは概して中規模であり、主に推論の速度を保証する。
既存の研究によると、ニューラルネットワークの強力な能力は、主に非線形性に起因する。
本稿では,本手法の有効性を検証するための凝縮低減アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-02T06:53:40Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - A Light-Weighted Convolutional Neural Network for Bitemporal SAR Image
Change Detection [40.58864817923371]
計算と空間の複雑さを低減するために,軽量なニューラルネットワークを提案する。
提案するネットワークでは、通常の畳み込み層を、入力と出力の間に同じ数のチャネルを保持するボトルネック層に置き換える。
両時間SAR画像の4つのセット上で、重み付けされたニューラルネットワークを検証する。
論文 参考訳(メタデータ) (2020-05-29T04:01:32Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Exploring the Connection Between Binary and Spiking Neural Networks [1.329054857829016]
両立ニューラルネットワークとスパイクニューラルネットワークの訓練における最近のアルゴリズムの進歩を橋渡しする。
極端量子化システムにおけるスパイキングニューラルネットワークのトレーニングは,大規模データセット上でのほぼ完全な精度向上をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-24T03:46:51Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。