論文の概要: Fully Spiking Variational Autoencoder
- arxiv url: http://arxiv.org/abs/2110.00375v2
- Date: Tue, 5 Oct 2021 07:26:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-10 13:27:48.769718
- Title: Fully Spiking Variational Autoencoder
- Title(参考訳): フルスパイク変分オートエンコーダ
- Authors: Hiromichi Kamata, Yusuke Mukuta, Tatsuya Harada
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
- 参考スコア(独自算出の注目度): 66.58310094608002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural networks (SNNs) can be run on neuromorphic devices with
ultra-high speed and ultra-low energy consumption because of their binary and
event-driven nature. Therefore, SNNs are expected to have various applications,
including as generative models being running on edge devices to create
high-quality images. In this study, we build a variational autoencoder (VAE)
with SNN to enable image generation. VAE is known for its stability among
generative models; recently, its quality advanced. In vanilla VAE, the latent
space is represented as a normal distribution, and floating-point calculations
are required in sampling. However, this is not possible in SNNs because all
features must be binary time series data. Therefore, we constructed the latent
space with an autoregressive SNN model, and randomly selected samples from its
output to sample the latent variables. This allows the latent variables to
follow the Bernoulli process and allows variational learning. Thus, we build
the Fully Spiking Variational Autoencoder where all modules are constructed
with SNN. To the best of our knowledge, we are the first to build a VAE only
with SNN layers. We experimented with several datasets, and confirmed that it
can generate images with the same or better quality compared to conventional
ANNs. The code is available at https://github.com/kamata1729/FullySpikingVAE
- Abstract(参考訳): スパイキングニューラルネットワーク(snn)は、そのバイナリとイベント駆動の性質から、超高速で超低エネルギーのニューロモルフィックデバイス上で動作することができる。
したがって、SNNには、高品質な画像を作成するためにエッジデバイス上で実行されている生成モデルなど、さまざまな応用が期待されている。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
VAEは生成モデル間の安定性で知られており、最近では品質が向上している。
バニラVAEでは、潜伏空間は正規分布として表現され、サンプリングには浮動小数点計算が必要である。
しかし、SNNでは、全ての機能はバイナリ時系列データでなければならないため、これは不可能である。
そこで我々は,自己回帰SNNモデルを用いて潜時空間を構築し,その出力からランダムに選択して潜時変数をサンプリングした。
これにより潜伏変数はベルヌーイ過程に従うことができ、変分学習が可能である。
そこで我々は全モジュールをSNNで構築するフルスパイキング変分自動エンコーダを構築した。
私たちの知る限りでは、私たちは初めて、SNN層だけでVAEを構築しました。
我々は,いくつかのデータセットを実験し,従来の ann と同等かそれ以上の品質の画像を生成できることを確認した。
コードはhttps://github.com/kamata1729/fullyspikingvaeで入手できる。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - ANN vs SNN: A case study for Neural Decoding in Implantable
Brain-Machine Interfaces [0.7904805552920349]
本研究では,運動復号化のための異なるニューラルネットワーク(NN)を精度と実装コストの観点から比較する。
さらに,従来の信号処理技術と機械学習技術を組み合わせることで,単純なNNでも驚くほど優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2023-12-26T05:40:39Z) - ESVAE: An Efficient Spiking Variational Autoencoder with Reparameterizable Poisson Spiking Sampling [20.36674120648714]
可変オートエンコーダ(VAE)は、最も人気のある画像生成モデルの一つである。
現在のVAE法は、精巧な自己回帰ネットワークによって潜在空間を暗黙的に構築する。
本稿では,解釈可能な潜在空間分布を構成する効率的なスパイキング変分オートエンコーダ(ESVAE)を提案する。
論文 参考訳(メタデータ) (2023-10-23T12:01:10Z) - Spiking-Diffusion: Vector Quantized Discrete Diffusion Model with
Spiking Neural Networks [13.586012318909907]
スパイキングニューラルネットワーク(SNN)は、エネルギー効率のよいニューロモルフィックチップにとって大きな可能性を秘めている。
本稿では,ベクトル量子化離散拡散モデルに基づくスパイキング拡散モデルを提案する。
MNIST、FMNIST、KMNIST、Leters、Cifar10の実験結果は、スパイキング拡散が既存のSNNベースの生成モデルより優れていることを示している。
論文 参考訳(メタデータ) (2023-08-20T07:29:03Z) - Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - PrivateSNN: Fully Privacy-Preserving Spiking Neural Networks [6.336941090564427]
PrivateSNNは、データセットに含まれる機密情報を漏洩することなく、トレーニング済みのANNモデルから低電力のスパイクニューラルネットワーク(SNN)を構築することを目指しています。
ANN-SNN変換プロセス中にネットワークが実際のトレーニングデータにアクセスする際に発生するデータ漏洩という2つのタイプのリーク問題に対処する。
データ漏洩問題に対処するため、事前訓練されたANNから合成画像を生成し、生成された画像を用いてANNをSNNに変換する。
我々は、暗号化された privatesnn は、大きな性能低下なしに実装できるだけでなく、かなりのエネルギーで実装できると観察する。
論文 参考訳(メタデータ) (2021-04-07T22:14:02Z) - Event-Based Angular Velocity Regression with Spiking Networks [51.145071093099396]
スパイキングニューラルネットワーク(SNN)は、数値ではなく時間スパイクとして伝達される情報を処理する。
本稿では,イベントカメラから与えられた事象の時間回帰問題を初めて提案する。
角速度回帰を行うためにSNNをうまく訓練できることが示される。
論文 参考訳(メタデータ) (2020-03-05T17:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。