論文の概要: Spiking-GAN: A Spiking Generative Adversarial Network Using
Time-To-First-Spike Coding
- arxiv url: http://arxiv.org/abs/2106.15420v1
- Date: Tue, 29 Jun 2021 13:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:17:01.889688
- Title: Spiking-GAN: A Spiking Generative Adversarial Network Using
Time-To-First-Spike Coding
- Title(参考訳): Spiking-GAN: タイム・ツー・ファースト・スパイク符号化を用いたスパイク生成敵ネットワーク
- Authors: Vineet Kotariya, Udayan Ganguly
- Abstract要約: 我々は、最初のスパイクベースジェネレーティブ・アドバイサル・ネットワーク(GAN)であるSpking-GANを提案する。
タイム・ツー・ファースト・スパイク・コーディング(Time-to-first-Spike coding)と呼ばれるテンポラリなコーディング方式を採用している。
我々の修正時間損失関数である「攻撃的TTFS」は、ネットワークの推論時間を33%以上改善し、ネットワーク内のスパイク数を11%以上削減する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNNs) have shown great potential in solving deep
learning problems in an energy-efficient manner. However, they are still
limited to simple classification tasks. In this paper, we propose Spiking-GAN,
the first spike-based Generative Adversarial Network (GAN). It employs a kind
of temporal coding scheme called time-to-first-spike coding. We train it using
approximate backpropagation in the temporal domain. We use simple
integrate-and-fire (IF) neurons with very high refractory period for our
network which ensures a maximum of one spike per neuron. This makes the model
much sparser than a spike rate-based system. Our modified temporal loss
function called 'Aggressive TTFS' improves the inference time of the network by
over 33% and reduces the number of spikes in the network by more than 11%
compared to previous works. Our experiments show that on training the network
on the MNIST dataset using this approach, we can generate high quality samples.
Thereby demonstrating the potential of this framework for solving such problems
in the spiking domain.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は、エネルギー効率の良い方法でディープラーニング問題を解決する大きな可能性を示している。
しかし、それらは単純な分類タスクに限定されている。
本稿では,最初のスパイクベース生成支援ネットワーク(GAN)であるSpking-GANを提案する。
タイム・ツー・ファースト・スパイク・コーディングと呼ばれる時間的コーディング方式を採用している。
時間領域における近似バックプロパゲーションを用いてトレーニングする。
我々は,ニューロン1個あたりのスパイクの最大値を確保するために,非常に高い屈折期間を有する単純な統合・火災ニューロンを用いている。
これにより、モデルがスパイクレートベースのシステムよりもスペアになる。
我々の修正時間損失関数である「攻撃的TTFS」は、ネットワークの推論時間を33%以上改善し、ネットワーク内のスパイク数を11%以上削減する。
実験により,mnistデータセット上でネットワークをトレーニングすると,高品質なサンプルを生成できることを示した。
これにより、スパイク領域におけるこのような問題を解決するためのこのフレームワークの可能性を示す。
関連論文リスト
- LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - SpikingNeRF: Making Bio-inspired Neural Networks See through the Real World [19.696976370895907]
本稿では、スパイキングニューラルネットワーク(SNN)の時間次元を放射光に合わせるスパイキングNeRFを提案する。
計算はスパイクベースで乗算のない方式に変わり、エネルギー消費を減らし、ニューロモルフィックなハードウェアで高品質な3Dレンダリングを可能にする。
論文 参考訳(メタデータ) (2023-09-20T01:04:57Z) - Sparse-firing regularization methods for spiking neural networks with
time-to-first spike coding [2.5234156040689237]
本稿では,2つのスパイクタイミングに基づくスパースファイリング(SSR)正規化手法を提案する。
これらの正則化法がMNIST, Fashion-MNIST, CIFAR-10データセットに与える影響を調べた。
論文 参考訳(メタデータ) (2023-07-24T11:55:49Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - A temporally and spatially local spike-based backpropagation algorithm
to enable training in hardware [0.0]
Spiking Neural Networks (SNN)は、分類タスクのためのハードウェア効率の良いアーキテクチャとして登場した。
非スパイキング人工ニューラルネットワーク(ANN)で使用される強力なバックプロパゲーション(BP)技術を採用する試みはいくつかある。
論文 参考訳(メタデータ) (2022-07-20T08:57:53Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Supervised Learning in Temporally-Coded Spiking Neural Networks with
Approximate Backpropagation [0.021506382989223777]
本稿では,時間的に符号化された多層スパイキングネットワークのための教師付き学習手法を提案する。
この方法はバックプロパゲーションを模倣する強化信号を用いるが、計算集約性ははるかに低い。
シミュレーションされたMNIST手書き桁分類では、このルールで訓練された2層ネットワークは、同等のバックプロパゲーションベースの非スパイキングネットワークの性能と一致した。
論文 参考訳(メタデータ) (2020-07-27T03:39:49Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。