論文の概要: Spiking CapsNet: A Spiking Neural Network With A Biologically Plausible
Routing Rule Between Capsules
- arxiv url: http://arxiv.org/abs/2111.07785v1
- Date: Mon, 15 Nov 2021 14:23:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 23:10:20.763084
- Title: Spiking CapsNet: A Spiking Neural Network With A Biologically Plausible
Routing Rule Between Capsules
- Title(参考訳): spiking capsnet: カプセル間のルーティングルールを生物学的に許容するスパイキングニューラルネットワーク
- Authors: Dongcheng Zhao, Yang Li, Yi Zeng, Jihang Wang, Qian Zhang
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、その強力な時間情報表現能力により、多くの注目を集めている。
CapsNetは、さまざまなレベルの組み立てと結合でうまく機能する。
ニューラルネットワークのモデリングにカプセルを導入することで、Spking CapsNetを提案する。
- 参考スコア(独自算出の注目度): 9.658836348699161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking neural network (SNN) has attracted much attention due to their
powerful spatio-temporal information representation ability. Capsule Neural
Network (CapsNet) does well in assembling and coupling features at different
levels. Here, we propose Spiking CapsNet by introducing the capsules into the
modelling of spiking neural networks. In addition, we propose a more
biologically plausible Spike Timing Dependent Plasticity routing mechanism. By
fully considering the spatio-temporal relationship between the low-level
spiking capsules and the high-level spiking capsules, the coupling ability
between them is further improved. We have verified experiments on the MNIST and
FashionMNIST datasets. Compared with other excellent SNN models, our algorithm
still achieves high performance. Our Spiking CapsNet fully combines the
strengthens of SNN and CapsNet, and shows strong robustness to noise and affine
transformation. By adding different Salt-Pepper and Gaussian noise to the test
dataset, the experimental results demonstrate that our Spiking CapsNet shows a
more robust performance when there is more noise, while the artificial neural
network can not correctly clarify. As well, our Spiking CapsNet shows strong
generalization to affine transformation on the AffNIST dataset.
- Abstract(参考訳): spiking neural network (snn) は、その時空間的情報表現能力により、多くの注目を集めている。
Capsule Neural Network(CapsNet)は,さまざまなレベルでの組み立てと結合機能を備えている。
本稿では,スパイキングニューラルネットワークのモデル化にカプセルを導入することによりスパイキングキャップネットを提案する。
さらに,より生物学的に有効なスパイクタイミング依存塑性ルーティング機構を提案する。
低レベルスパイクカプセルと高レベルスパイクカプセルとの時空間関係を十分に考慮することで、それらの結合能力をさらに向上させる。
我々はMNISTデータセットとFashionMNISTデータセットについて検証を行った。
他の優れたSNNモデルと比較して、我々のアルゴリズムは依然として高性能である。
我々のSpking CapsNetはSNNとCapsNetの強化を完全に組み合わせており、ノイズやアフィン変換に対する強い堅牢性を示している。
テストデータセットに異なるSalt-PepperとGaussianノイズを加えることで、実験結果は、よりノイズが多い場合にはSpike CapsNetがより堅牢なパフォーマンスを示す一方で、人工ニューラルネットワークは正しく解明できないことを示した。
同様に、Spking CapsNetはAffNISTデータセット上でアフィン変換を強く一般化している。
関連論文リスト
- Temporal Spiking Neural Networks with Synaptic Delay for Graph Reasoning [91.29876772547348]
スパイキングニューラルネットワーク(SNN)は、生物学的にインスパイアされたニューラルネットワークモデルとして研究されている。
本稿では,SNNがシナプス遅延と時間符号化とを併用すると,グラフ推論の実行(知識)に長けていることを明らかにする。
論文 参考訳(メタデータ) (2024-05-27T05:53:30Z) - Capsule Neural Networks as Noise Stabilizer for Time Series Data [20.29049860598735]
カプセルニューラルネットワークは、単一ベクトルにニューロンを結合し、位置同変の特徴を学習するカプセルを使用する。
本稿では,高感度でノイズの多い時系列センサデータの解析におけるCapsNetsの有効性について検討する。
論文 参考訳(メタデータ) (2024-03-20T12:17:49Z) - Spikformer V2: Join the High Accuracy Club on ImageNet with an SNN
Ticket [81.9471033944819]
スパイキングニューラルネットワーク(SNN)は、限られたパフォーマンスの課題に直面している。
高性能変圧器の基礎となる自己保持機構は,既存のSNNでは欠落している。
スパイキング自己注意(SSA)とスパイキングトランスフォーマー(Spikformer)を提案する。
論文 参考訳(メタデータ) (2024-01-04T01:33:33Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Spikingformer: Spike-driven Residual Learning for Transformer-based
Spiking Neural Network [19.932683405796126]
スパイキングニューラルネットワーク(SNN)は、人工ニューラルネットワークに代わる有望なエネルギー効率の代替手段を提供する。
SNNは、残余接続の構造によって引き起こされる非スパイク計算に悩まされる。
我々は、純粋なトランスをベースとしたスパイクニューラルネットワークであるSpkingformerを開発した。
論文 参考訳(メタデータ) (2023-04-24T09:44:24Z) - RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - Exploiting High Performance Spiking Neural Networks with Efficient
Spiking Patterns [4.8416725611508244]
スパイキングニューラルネットワーク(SNN)は、離散スパイクシーケンスを使用して情報を伝達し、脳の情報伝達を著しく模倣する。
本稿では、動的バーストパターンを導入し、短時間の性能と動的時間的性能のトレードオフを可能にするLeaky Integrate and Fire or Burst(LIFB)ニューロンを設計する。
論文 参考訳(メタデータ) (2023-01-29T04:22:07Z) - Spikformer: When Spiking Neural Network Meets Transformer [102.91330530210037]
本稿では,スパイキングニューラルネットワーク(SNN)と自己認識機構という,生物学的にもっとも有効な2つの構造について考察する。
我々は、スパイキング・セルフ・アテンション(SSA)と、スパイキング・トランスフォーマー(Spikformer)という強力なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-29T14:16:49Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Parallel Capsule Networks for Classification of White Blood Cells [1.5749416770494706]
Capsule Networks(CapsNets)は、畳み込みニューラルネットワーク(CNN)の欠点を克服するために提案された機械学習アーキテクチャである。
我々は,特定のカプセルを分離するためにネットワークを分岐するという概念を活用する,新しいアーキテクチャであるCapsNetsを提案する。
論文 参考訳(メタデータ) (2021-08-05T14:30:44Z) - Subspace Capsule Network [85.69796543499021]
SubSpace Capsule Network (SCN) はカプセルネットワークのアイデアを利用して、エンティティの外観や暗黙的に定義された特性のバリエーションをモデル化する。
SCNは、テスト期間中にCNNと比較して計算オーバーヘッドを発生させることなく、識別モデルと生成モデルの両方に適用することができる。
論文 参考訳(メタデータ) (2020-02-07T17:51:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。