論文の概要: Inferno: An Extensible Framework for Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2409.11567v1
- Date: Tue, 17 Sep 2024 21:44:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:49:52.779504
- Title: Inferno: An Extensible Framework for Spiking Neural Networks
- Title(参考訳): Inferno: ニューラルネットワークをスパイクするための拡張可能なフレームワーク
- Authors: Marissa Dominijanni,
- Abstract要約: InfernoがCPUとGPUの両方でトレーニング可能な不均一遅延をどのようにサポートしているかを示す。
Infernoは、新しいモデルや技術のための"書き込み1回、適用至るところで"開発方法論を可能にするかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Inferno, a software library built on top of PyTorch that is designed to meet distinctive challenges of using spiking neural networks (SNNs) for machine learning tasks. We describe the architecture of Inferno and key differentiators that make it uniquely well-suited to these tasks. We show how Inferno supports trainable heterogeneous delays on both CPUs and GPUs, and how Inferno enables a "write once, apply everywhere" development methodology for novel models and techniques. We compare Inferno's performance to BindsNET, a library aimed at machine learning with SNNs, and Brian2/Brian2CUDA which is popular in neuroscience. Among several examples, we show how the design decisions made by Inferno facilitate easily implementing the new methods of Nadafian and Ganjtabesh in delay learning with spike-timing dependent plasticity.
- Abstract(参考訳): 本稿では,PyTorch上に構築されたソフトウェアライブラリであるInfernoについて紹介する。
Infernoのアーキテクチャと、これらのタスクに一意に適合する重要な差別化要因について説明する。
InfernoがCPUとGPUの両方でトレーニング可能なヘテロジニアス遅延をどのようにサポートしているか、また、新しいモデルやテクニックに対して、いかにしてInfernoが"書き込み1回、適用至るところで"開発方法論を可能にするかを示す。
我々は、Infernoのパフォーマンスを、SNNによる機械学習を目的としたライブラリであるBindsNETと、神経科学で人気のあるBrian2/Brian2CUDAと比較する。
いくつかの例の中で,Infernoの設計決定が,スパイク刺激依存塑性を用いた遅延学習において,Nadafian と Ganjtabesh の新たな手法を容易に実装できることを示す。
関連論文リスト
- Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Self-Denoising Neural Networks for Few Shot Learning [66.38505903102373]
既存のニューラルアーキテクチャの複数の段階でノイズを追加すると同時に、この付加ノイズに対して堅牢であるように学習する新しいトレーニングスキームを提案する。
このアーキテクチャは、SDNN(Self-Denoising Neural Network)と呼ばれ、現代の畳み込みニューラルネットワークに容易に適用できます。
論文 参考訳(メタデータ) (2021-10-26T03:28:36Z) - Very Deep Graph Neural Networks Via Noise Regularisation [57.450532911995516]
グラフニューラルネットワーク(GNN)は、入力グラフを介して学習されたメッセージパッシングを実行する。
最大100のメッセージパッシングステップを持つディープGNNをトレーニングし、いくつかの最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-15T08:50:10Z) - Neural Architecture Search via Bregman Iterations [1.7778609937758323]
本稿では,Bregman反復に基づくニューラルアーキテクチャ探索(NAS)の新たな戦略を提案する。
我々の勾配に基づくワンショットアルゴリズムは、徐々に、逆スケール空間の方法で関連するパラメータを追加する。
論文 参考訳(メタデータ) (2021-06-04T13:37:47Z) - Learning N:M Fine-grained Structured Sparse Neural Networks From Scratch [75.69506249886622]
ディープニューラルネットワーク(DNN)におけるスパーシティは、資源制約された環境でモデルを圧縮し、加速するために広く研究されている。
本稿では,N:M細粒構造スパースネットワークのスクラッチからトレーニングを初めて行う。
論文 参考訳(メタデータ) (2021-02-08T05:55:47Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Thermal-Aware Compilation of Spiking Neural Networks to Neuromorphic
Hardware [0.30458514384586394]
本稿では、SNNベースの機械学習ワークロードのニューロンとシナプスをニューロモルフィックハードウェアにマッピングする手法を提案する。
ハードウェアの各クロスバーの平均温度は平均11.4低下し, リーク電力消費量は52%減少した。
論文 参考訳(メタデータ) (2020-10-09T19:29:14Z) - How to 0wn NAS in Your Spare Time [11.997555708723523]
本研究では,キャッシュ側チャネル攻撃による情報漏洩を利用して,新しいディープラーニングシステムの主要コンポーネントを再構築するアルゴリズムを設計する。
我々は、マルウェア検出のための新しいデータ前処理パイプラインであるMalConvと、画像ネット分類のための新しいネットワークアーキテクチャであるProxylessNAS CPU-NASを再構築できることを実験的に実証した。
論文 参考訳(メタデータ) (2020-02-17T05:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。