論文の概要: Hybrid Spiking Neural Network Fine-tuning for Hippocampus Segmentation
- arxiv url: http://arxiv.org/abs/2302.07328v1
- Date: Tue, 14 Feb 2023 20:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 16:27:38.354091
- Title: Hybrid Spiking Neural Network Fine-tuning for Hippocampus Segmentation
- Title(参考訳): 海馬セグメンテーションのためのハイブリッドスパイクニューラルネットワーク微細チューニング
- Authors: Ye Yue, Marc Baltes, Nidal Abujahar, Tao Sun, Charles D. Smith, Trevor
Bihl, Jundong Liu
- Abstract要約: 人工ニューラルネットワーク(ANN)の代替としてスパイキングニューラルネットワーク(SNN)が登場している
本研究では,磁気共鳴画像からヒト海馬を抽出するためのハイブリッドSNNトレーニング手法を提案する。
- 参考スコア(独自算出の注目度): 3.1247096708403914
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Over the past decade, artificial neural networks (ANNs) have made tremendous
advances, in part due to the increased availability of annotated data. However,
ANNs typically require significant power and memory consumptions to reach their
full potential. Spiking neural networks (SNNs) have recently emerged as a
low-power alternative to ANNs due to their sparsity nature. SNN, however, are
not as easy to train as ANNs. In this work, we propose a hybrid SNN training
scheme and apply it to segment human hippocampi from magnetic resonance images.
Our approach takes ANN-SNN conversion as an initialization step and relies on
spike-based backpropagation to fine-tune the network. Compared with the
conversion and direct training solutions, our method has advantages in both
segmentation accuracy and training efficiency. Experiments demonstrate the
effectiveness of our model in achieving the design goals.
- Abstract(参考訳): 過去10年間で、人工知能(ann)は、注釈付きデータの可用性の高まりによって、大きな進歩を遂げてきた。
しかし、ANNは大きな電力とメモリ消費を必要とする。
スパイキングニューラルネットワーク(SNN)は、最近、その疎性の性質から、ANNの低消費電力代替品として登場した。
しかし、SNNはANNほど訓練が簡単ではない。
本研究では,ハイブリッドsn訓練方式を提案し,磁気共鳴画像からヒト海馬の分節化に応用する。
提案手法は、ANN-SNN変換を初期化ステップとし、スパイクベースのバックプロパゲーションを利用してネットワークを微調整する。
本手法は,変換および直接トレーニングソリューションと比較して,セグメンテーション精度とトレーニング効率に優れる。
実験では,設計目標達成におけるモデルの有効性を実証する。
関連論文リスト
- LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - SPENSER: Towards a NeuroEvolutionary Approach for Convolutional Spiking
Neural Networks [0.0]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率と生物学的妥当性から近年関心を集めている。
SNNの最良の学習アルゴリズムについては合意がない。
本稿では,DENSERに基づくSNN生成フレームワークであるSPENSERを提案する。
論文 参考訳(メタデータ) (2023-05-18T14:06:37Z) - Joint A-SNN: Joint Training of Artificial and Spiking Neural Networks
via Self-Distillation and Weight Factorization [12.1610509770913]
スパイクニューラルネットワーク(SNN)は、脳ニューロンのスパイク特性を模倣する。
我々は、ANNとSNNの合同トレーニングフレームワークを提案し、ANNはSNNの最適化をガイドできる。
我々の手法は、他の多くの最先端の訓練方法より一貫して優れています。
論文 参考訳(メタデータ) (2023-05-03T13:12:17Z) - LaSNN: Layer-wise ANN-to-SNN Distillation for Effective and Efficient
Training in Deep Spiking Neural Networks [7.0691139514420005]
スパイキングニューラルネットワーク(SNN)は、事象駆動機構のため、生物学的に現実的で、低消費電力で現実的に有望である。
トレーニングされたANNのパラメータを同じ構造を持つSNNにマッピングすることで、競合精度を得るための変換方式を提案する。
レイヤワイドANN-to-SNN知識蒸留(LaSNN)という新しいSNNトレーニングフレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-17T03:49:35Z) - Joint ANN-SNN Co-training for Object Localization and Image Segmentation [0.0]
深層ニューラルネットワーク(ANN)の代替としてスパイキングニューラルネットワーク(SNN)が登場している
変換されたSNNの性能を向上させるために,新しいハイブリッドANN-SNN協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:45:02Z) - SNN2ANN: A Fast and Memory-Efficient Training Framework for Spiking
Neural Networks [117.56823277328803]
スパイクニューラルネットワークは、低消費電力環境における効率的な計算モデルである。
本稿では,SNNを高速かつメモリ効率で学習するためのSNN-to-ANN(SNN2ANN)フレームワークを提案する。
実験結果から,SNN2ANNをベースとしたモデルがベンチマークデータセットで良好に動作することが示された。
論文 参考訳(メタデータ) (2022-06-19T16:52:56Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Training Deep Spiking Neural Networks [0.0]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)とニューロモルフィックハードウェアは、エネルギー効率を桁違いに高める可能性がある。
CIFAR100およびImagenetteオブジェクト認識データセット上で、ResNet50アーキテクチャでSNNをトレーニングすることが可能であることを示す。
訓練されたSNNは、類似のANNと比較して精度が劣るが、数桁の推論時間ステップを必要とする。
論文 参考訳(メタデータ) (2020-06-08T09:47:05Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。