論文の概要: Multi-Objective Optimization for Size and Resilience of Spiking Neural
Networks
- arxiv url: http://arxiv.org/abs/2002.01406v1
- Date: Tue, 4 Feb 2020 16:58:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 02:22:18.295289
- Title: Multi-Objective Optimization for Size and Resilience of Spiking Neural
Networks
- Title(参考訳): スパイクニューラルネットワークのサイズとレジリエンスの多目的最適化
- Authors: Mihaela Dimovska, Travis Johnston, Catherine D. Schuman, J. Parker
Mitchell, Thomas E. Potok
- Abstract要約: シリコンにおけるスパイキングニューラルネットワーク(SNN)モデル
スパイキングニューラルネットワークを2つのニューロモルフィックアーキテクチャの実装に適用し,そのサイズを小さくすることを目的とした。
本稿では,SNNのサイズとレジリエンスを最適化する多目的フィットネス機能を提案する。
- 参考スコア(独自算出の注目度): 0.9449650062296823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by the connectivity mechanisms in the brain, neuromorphic computing
architectures model Spiking Neural Networks (SNNs) in silicon. As such,
neuromorphic architectures are designed and developed with the goal of having
small, low power chips that can perform control and machine learning tasks.
However, the power consumption of the developed hardware can greatly depend on
the size of the network that is being evaluated on the chip. Furthermore, the
accuracy of a trained SNN that is evaluated on chip can change due to voltage
and current variations in the hardware that perturb the learned weights of the
network. While efforts are made on the hardware side to minimize those
perturbations, a software based strategy to make the deployed networks more
resilient can help further alleviate that issue. In this work, we study Spiking
Neural Networks in two neuromorphic architecture implementations with the goal
of decreasing their size, while at the same time increasing their resiliency to
hardware faults. We leverage an evolutionary algorithm to train the SNNs and
propose a multiobjective fitness function to optimize the size and resiliency
of the SNN. We demonstrate that this strategy leads to well-performing,
small-sized networks that are more resilient to hardware faults.
- Abstract(参考訳): 脳の接続メカニズムにインスパイアされたニューロモルフィックコンピューティングアーキテクチャは、シリコンのスパイクニューラルネットワーク(snn)をモデル化する。
そのため、ニューロモルフィックアーキテクチャは、制御や機械学習タスクを実行できる小型で低消費電力のチップを目標として設計・開発されている。
しかし、開発したハードウェアの消費電力は、チップ上で評価されているネットワークのサイズに大きく依存する。
さらに、チップ上で評価されたトレーニングされたSNNの精度は、ネットワークの学習重量を乱すハードウェアの電圧と電流の変動によって変化する可能性がある。
ハードウェア側でこれらの混乱を最小限に抑える努力が行われているが、デプロイされたネットワークをよりレジリエンスにするためのソフトウェアベースの戦略は、この問題をさらに緩和するのに役立つ。
本研究では,スパイキングニューラルネットワークを2つのニューロモルフィックアーキテクチャの実装に適用し,そのサイズを小さくすると同時に,ハードウェア故障に対する耐性を高めることを目的とした。
進化的アルゴリズムを利用してSNNを訓練し、SNNのサイズとレジリエンスを最適化する多目的フィットネス関数を提案する。
この戦略がハードウェアの欠点に対してより回復力のある、高性能で小型のネットワークに繋がることを示す。
関連論文リスト
- Scalable Mechanistic Neural Networks [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
元のメカニスティックニューラルネットワーク (MNN) を再構成することにより、計算時間と空間の複雑さを、それぞれ、列長に関して立方体と二次体から線形へと減少させる。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Sparsity-Aware Hardware-Software Co-Design of Spiking Neural Networks: An Overview [1.0499611180329804]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークのスパースでイベント駆動的な性質にインスパイアされ、超低消費電力人工知能の可能性を秘めている。
スパースSNNのハードウェア・ソフトウェア共同設計について検討し,スパース表現,ハードウェアアーキテクチャ,トレーニング技術がハードウェア効率に与える影響について検討する。
本研究の目的は,スパースSNNの計算的優位性をフル活用した,組込みニューロモルフィックシステムへの道筋を解明することである。
論文 参考訳(メタデータ) (2024-08-26T17:22:11Z) - Q-SNNs: Quantized Spiking Neural Networks [12.719590949933105]
スパイキングニューラルネットワーク(SNN)はスパーススパイクを利用して情報を表現し、イベント駆動方式で処理する。
シナプス重みと膜電位の両方に量子化を適用する軽量でハードウェアフレンドリな量子化SNNを提案する。
本稿では,情報エントロピー理論にインスパイアされた新しいウェイトスパイクデュアルレギュレーション(WS-DR)法を提案する。
論文 参考訳(メタデータ) (2024-06-19T16:23:26Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - The Hardware Impact of Quantization and Pruning for Weights in Spiking
Neural Networks [0.368986335765876]
パラメータの量子化とプルーニングは、モデルサイズを圧縮し、メモリフットプリントを削減し、低レイテンシ実行を容易にする。
本研究では,身近な身近なジェスチャー認識システムであるSNNに対して,孤立度,累積的に,そして同時にプルーニングと量子化の様々な組み合わせについて検討する。
本研究では,3次重みまで精度の低下に悩まされることなく,攻撃的パラメータ量子化に対処可能であることを示す。
論文 参考訳(メタデータ) (2023-02-08T16:25:20Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Building Compact and Robust Deep Neural Networks with Toeplitz Matrices [93.05076144491146]
この論文は、コンパクトで、訓練が容易で、信頼性があり、敵の例に対して堅牢なニューラルネットワークを訓練する問題に焦点を当てている。
Toeplitzファミリーの構造化行列の特性を利用して、コンパクトでセキュアなニューラルネットワークを構築する。
論文 参考訳(メタデータ) (2021-09-02T13:58:12Z) - Online Training of Spiking Recurrent Neural Networks with Phase-Change
Memory Synapses [1.9809266426888898]
専用のニューロモルフィックハードウェア上でのスパイクニューラルネットワーク(RNN)のトレーニングは、依然としてオープンな課題である。
本稿では,PCMデバイスモデルに基づく差分構造アレイのシミュレーションフレームワークを提案する。
我々は,最近提案されたe-prop学習規則を用いて,提案したシミュレーションフレームワークに重みをエミュレートしたスパイクRNNを訓練する。
論文 参考訳(メタデータ) (2021-08-04T01:24:17Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。