論文の概要: SpikeFI: A Fault Injection Framework for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2412.06795v1
- Date: Fri, 22 Nov 2024 12:08:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-15 08:28:50.470227
- Title: SpikeFI: A Fault Injection Framework for Spiking Neural Networks
- Title(参考訳): SpikeFI: ニューラルネットワークのスパイクのためのフォールトインジェクションフレームワーク
- Authors: Theofilos Spyrou, Said Hamdioui, Haralampos-G. Stratigopoulos,
- Abstract要約: SpikeFIはニューラルネットワーク(SNN)のためのフォールトインジェクションフレームワーク
信頼性分析とテスト生成の自動化に使用できる。
SpikeFIはオープンソースで、GitHubからhttps:// GitHub.com/SpikeFI.comからダウンロードできる。
- 参考スコア(独自算出の注目度): 0.3413711585591077
- License:
- Abstract: Neuromorphic computing and spiking neural networks (SNNs) are gaining traction across various artificial intelligence (AI) tasks thanks to their potential for efficient energy usage and faster computation speed. This comparative advantage comes from mimicking the structure, function, and efficiency of the biological brain, which arguably is the most brilliant and green computing machine. As SNNs are eventually deployed on a hardware processor, the reliability of the application in light of hardware-level faults becomes a concern, especially for safety- and mission-critical applications. In this work, we propose SpikeFI, a fault injection framework for SNNs that can be used for automating the reliability analysis and test generation. SpikeFI is built upon the SLAYER PyTorch framework with fault injection experiments accelerated on a single or multiple GPUs. It has a comprehensive integrated neuron and synapse fault model library, in accordance to the literature in the domain, which is extendable by the user if needed. It supports: single and multiple faults; permanent and transient faults; specified, random layer-wise, and random network-wise fault locations; and pre-, during, and post-training fault injection. It also offers several optimization speedups and built-in functions for results visualization. SpikeFI is open-source and available for download via GitHub at https://github.com/SpikeFI.
- Abstract(参考訳): ニューロモルフィックコンピューティングとスパイクニューラルネットワーク(SNN)は、効率的なエネルギー使用と高速な計算速度のために、さまざまな人工知能(AI)タスクで注目を集めている。
この比較優位性は、最も輝かしく緑のコンピュータマシンである、生体脳の構造、機能、効率を模倣することにある。
SNNは最終的にハードウェアプロセッサにデプロイされるため、特に安全およびミッションクリティカルなアプリケーションにおいて、ハードウェアレベルの障害を考慮したアプリケーションの信頼性が懸念される。
本研究では,信頼性解析とテスト生成の自動化に使用可能なSNN用フォールトインジェクションフレームワークであるSpikeFIを提案する。
SpikeFIはSLAYER PyTorchフレームワーク上に構築されており、単一または複数のGPU上で障害注入実験を高速化する。
ドメイン内の文献に従って、総合的な統合ニューロンとシナプスフォールトモデルライブラリを持ち、必要に応じてユーザによって拡張可能である。
サポート対象は、単一および複数障害、永続的および過渡的障害、特定、ランダムなレイヤワイド、ランダムなネットワークワイド障害ロケーション、事前、中、および後トレーニングの障害インジェクションである。
また、結果を視覚化するためのいくつかの最適化スピードアップとビルトイン機能も提供する。
SpikeFIはオープンソースで、GitHubからhttps://github.com/SpikeFI.comからダウンロードできる。
関連論文リスト
- Spiker+: a framework for the generation of efficient Spiking Neural
Networks FPGA accelerators for inference at the edge [49.42371633618761]
Spiker+はFPGA上で、エッジでの推論のために効率よく、低消費電力で、低領域でカスタマイズされたSpking Neural Networks(SNN)アクセラレータを生成するためのフレームワークである。
Spiker+ は MNIST と Spiking Heidelberg Digits (SHD) の2つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2024-01-02T10:42:42Z) - Special Session: Approximation and Fault Resiliency of DNN Accelerators [0.9126382223122612]
本稿では,Deep Neural Networkアクセラレータの近似とフォールトレジリエンスについて検討する。
本稿では,DNNに障害注入を行わずにハードウェアのエラーをエミュレートするために近似(AxC)演算回路を提案する。
また,ネットワーク上での断層伝播とマスキングによる耐故障性の微粒化解析も提案する。
論文 参考訳(メタデータ) (2023-05-31T19:27:45Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - enpheeph: A Fault Injection Framework for Spiking and Compressed Deep
Neural Networks [10.757663798809144]
スパイク・圧縮型ディープニューラルネットワーク(DNN)の故障注入フレームワークであるenpheephについて述べる。
ランダムかつ増加する故障数を注入することにより,DNNはパラメータあたり7 x 10 (-7) の故障率で精度を低下させることができ,精度は40%以上低下することを示した。
論文 参考訳(メタデータ) (2022-07-31T00:30:59Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - E3NE: An End-to-End Framework for Accelerating Spiking Neural Networks
with Emerging Neural Encoding on FPGAs [6.047137174639418]
エンドツーエンドフレームワークのE3NEはFPGAのための効率的なSNN推論ロジックを生成する。
E3NEはハードウェアリソースの50%未満を消費し、20%の電力を消費する一方で、レイテンシを桁違いに低減する。
論文 参考訳(メタデータ) (2021-11-19T04:01:19Z) - A comparative study of neural network techniques for automatic software
vulnerability detection [9.443081849443184]
ソフトウェア脆弱性を検出する最も一般的な方法は静的解析である。
一部の研究者は、検出の知性を改善するために自動特徴抽出機能を持つニューラルネットワークの使用を提案している。
2つの典型的なニューラルネットワークの性能をテストするための広範な実験を実施しました。
論文 参考訳(メタデータ) (2021-04-29T01:47:30Z) - FAT: Training Neural Networks for Reliable Inference Under Hardware
Faults [3.191587417198382]
本稿では、ニューラルネットワーク(NN)トレーニング中のエラーモデリングを含む、フォールト・アウェア・トレーニング(FAT)と呼ばれる新しい手法を提案し、デバイス上の特定のフォールトモデルに耐性を持たせる。
FATはCIFAR10、GTSRB、SVHN、ImageNetなど多くの分類タスクに対して検証されている。
論文 参考訳(メタデータ) (2020-11-11T16:09:39Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。