論文の概要: SpikeNAS: A Fast Memory-Aware Neural Architecture Search Framework for
Spiking Neural Network Systems
- arxiv url: http://arxiv.org/abs/2402.11322v1
- Date: Sat, 17 Feb 2024 16:33:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-20 22:01:01.371047
- Title: SpikeNAS: A Fast Memory-Aware Neural Architecture Search Framework for
Spiking Neural Network Systems
- Title(参考訳): SpikeNAS: スパイクニューラルネットワークシステムのための高速メモリ対応ニューラルネットワーク検索フレームワーク
- Authors: Rachmad Vidya Wicaksana Putra, Muhammad Shafique
- Abstract要約: Spiking Neural Networks(SNN)は、機械学習タスクの超低消費電力/エネルギー計算を実現するための有望なソリューションを提供する。
現在、ほとんどのSNNアーキテクチャは、ニューロンのアーキテクチャと操作がSNNとは異なる人工ニューラルネットワークから派生している。
本稿では,SNNのための新しいメモリ対応ニューラルネットワーク検索フレームワークであるSpikeNASを提案する。
- 参考スコア(独自算出の注目度): 7.095331645967216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) offer a promising solution to achieve ultra
low-power/energy computation for solving machine learning tasks. Currently,
most of the SNN architectures are derived from Artificial Neural Networks whose
neurons' architectures and operations are different from SNNs, or developed
without considering memory budgets from the underlying processing hardware.
These limitations hinder the SNNs from reaching their full potential in
accuracy and efficiency. Towards this, we propose SpikeNAS, a novel
memory-aware neural architecture search (NAS) framework for SNNs that can
quickly find an appropriate SNN architecture with high accuracy under the given
memory budgets. To do this, our SpikeNAS employs several key steps: analyzing
the impacts of network operations on the accuracy, enhancing the network
architecture to improve the learning quality, and developing a fast
memory-aware search algorithm. The experimental results show that our SpikeNAS
improves the searching time and maintains high accuracy as compared to
state-of-the-art while meeting the given memory budgets (e.g., 4.4x faster
search with 1.3% accuracy improvement for CIFAR100, using an Nvidia RTX 6000
Ada GPU machine), thereby quickly providing the appropriate SNN architecture
for memory-constrained SNN-based systems.
- Abstract(参考訳): spiking neural networks (snns)は、機械学習タスクを解決するための超低消費電力/エネルギー計算を実現する有望なソリューションを提供する。
現在、snnアーキテクチャの大部分は、ニューロンのアーキテクチャと操作がsnsとは異なる人工ニューラルネットワークに由来するか、基礎となる処理ハードウェアからメモリ予算を考慮せずに開発されたものである。
これらの制限により、SNNは正確性と効率性において大きな可能性を秘めている。
そこで我々は,SNNのための新しいメモリ対応ニューラルアーキテクチャ探索(NAS)フレームワークであるSpikeNASを提案する。
これを実現するために、私たちのSpikeNASでは、ネットワーク操作が精度に与える影響を分析し、学習品質を改善するためにネットワークアーキテクチャを拡張し、高速なメモリ認識検索アルゴリズムを開発した。
実験結果から,spikenasは,与えられたメモリ予算(例えば,nvidia rtx 6000 ada gpuマシンを用いたcifar100の4.4倍高速検索と1.3%の精度向上)を満たしながら,最先端と比較して検索時間を短縮し,高い精度を保ち,メモリ制約付きsnベースシステムに適したsnnアーキテクチャを迅速に提供できることがわかった。
関連論文リスト
- SpikeX: Exploring Accelerator Architecture and Network-Hardware Co-Optimization for Sparse Spiking Neural Networks [3.758294848902233]
本研究では,非構造的空間性から生じる課題と機会に対処するため,Systolic-array SNNアクセラレーターアーキテクチャであるSpikeXを提案する。
SpikeXはメモリアクセスを減らし、データ共有と時間と空間にまたがる計算を対象とするハードウェア利用を増加させる。
論文 参考訳(メタデータ) (2025-05-18T08:07:44Z) - LightSNN: Lightweight Architecture Search for Sparse and Accurate Spiking Neural Networks [1.0485739694839666]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率、固有の活性化空間、エッジデバイスにおけるリアルタイム処理に適していると高く評価されている。
現在のSNN手法の多くは、従来の人工知能ニューラルネットワーク(ANN)に似たアーキテクチャを採用しており、SNNに適用した場合、最適以下の性能が得られる。
本稿では,高速かつ効率的なニューラルネットワークアーキテクチャ探索(NAS)技術であるLightSNNについて述べる。
論文 参考訳(メタデータ) (2025-03-27T16:38:13Z) - RNC: Efficient RRAM-aware NAS and Compilation for DNNs on Resource-Constrained Edge Devices [0.30458577208819987]
我々は抵抗性ランダムアクセスメモリ(RRAM)に基づく加速器のためのエッジフレンドリーなディープニューラルネットワーク(DNN)の開発を目指している。
本稿では,特定のハードウェア制約を満たす最適化ニューラルネットワークを探索するための,エッジコンパイルとリソース制約付きRRAM対応ニューラルネットワーク探索(NAS)フレームワークを提案する。
NASが速度に最適化した結果のモデルは5x-30倍のスピードアップを達成した。
論文 参考訳(メタデータ) (2024-09-27T15:35:36Z) - NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - A Pairwise Comparison Relation-assisted Multi-objective Evolutionary Neural Architecture Search Method with Multi-population Mechanism [58.855741970337675]
ニューラルアーキテクチャサーチ(NAS)により、リサーチ者は広大なサーチスペースを自動的に探索し、効率的なニューラルネットワークを見つけることができる。
NASは重要なボトルネックに悩まされており、探索プロセス中に多くのアーキテクチャを評価する必要がある。
SMEM-NASは,多集団構造に基づく多目的進化アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-22T12:46:22Z) - HASNAS: A Hardware-Aware Spiking Neural Architecture Search Framework for Neuromorphic Compute-in-Memory Systems [6.006032394972252]
スパイキングニューラルネットワーク(SNN)は、超低消費電力/エネルギー計算で多様な機械学習タスクを解く能力を示している。
ニューロモルフィックCIMシステムのための新しいハードウェア対応スパイクニューラルネットワーク探索フレームワークであるHASNASを提案する。
論文 参考訳(メタデータ) (2024-06-30T09:51:58Z) - SNN4Agents: A Framework for Developing Energy-Efficient Embodied Spiking Neural Networks for Autonomous Agents [6.110543738208028]
スパイキングニューラルネットワーク(SNN)は、イベントベースのカメラやデータ変換前処理からのスパイクを使用して、スパース計算を効率的に行う。
本稿では,エネルギー効率の良いSNNを設計するための最適化手法からなるSNN4Agentsという新しいフレームワークを提案する。
我々のフレームワークは、68.75%のメモリ節約、3.58倍のスピードアップ、4.03倍のエネルギー効率で高い精度(84.12%の精度)を維持することができる。
論文 参考訳(メタデータ) (2024-04-14T19:06:00Z) - Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - AutoSNN: Towards Energy-Efficient Spiking Neural Networks [26.288681480713695]
スパイキングニューラルネットワーク(SNN)は、脳内の情報伝達を模倣する。
これまでのほとんどの研究は訓練方法のみに焦点を合わせており、建築の影響はめったに研究されていない。
我々はAutoSNNと呼ばれるスパイク対応ニューラルネットワーク検索フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-30T06:12:59Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Neural Architecture Search of SPD Manifold Networks [79.45110063435617]
本研究では,Symmetric Positive Definite (SPD) 多様体ネットワークのニューラルアーキテクチャ探索(NAS)問題を提案する。
まず、効率的なSPDセル設計のために、幾何学的にリッチで多様なSPDニューラルアーキテクチャ探索空間を導入する。
我々は、SPDニューラルアーキテクチャ探索のための緩和された連続探索空間上で微分可能なNASアルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-10-27T18:08:57Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - Binarized Neural Architecture Search for Efficient Object Recognition [120.23378346337311]
バイナリ化されたニューラルネットワークサーチ(BNAS)は、エッジコンピューティング用の組み込みデバイスにおいて、膨大な計算コストを削減するために、極めて圧縮されたモデルを生成する。
9,6.53%対9,7.22%の精度はCIFAR-10データセットで達成されるが、かなり圧縮されたモデルで、最先端のPC-DARTSよりも40%速い検索が可能である。
論文 参考訳(メタデータ) (2020-09-08T15:51:23Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。