論文の概要: Exploration of Input Patterns for Enhancing the Performance of Liquid
State Machines
- arxiv url: http://arxiv.org/abs/2004.02540v2
- Date: Fri, 29 May 2020 17:59:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 07:32:10.472666
- Title: Exploration of Input Patterns for Enhancing the Performance of Liquid
State Machines
- Title(参考訳): 液体状態機械の性能向上のための入力パターンの検討
- Authors: Shasha Guo, Lianhua Qu, Lei Wang, Shuo Tian, Shiming Li, Weixia Xu
- Abstract要約: MLS(Liquid State Machine)は、SNN間のトレーニングコストの低さで広く認知されている。
入力スケール縮小がLSMに与える影響について検討する。
本研究では,チェスボードパターンによる入力の削減により,最大5%の精度向上を実現し,実行時間を最大50%削減できることを示す。
- 参考スコア(独自算出の注目度): 3.747038478601968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spiking Neural Networks (SNN) have gained increasing attention for its low
power consumption. But training SNN is challenging. Liquid State Machine (LSM),
as a major type of Reservoir computing, has been widely recognized for its low
training cost among SNNs. The exploration of LSM topology for enhancing
performance often requires hyper-parameter search, which is both
resource-expensive and time-consuming. We explore the influence of input scale
reduction on LSM instead. There are two main reasons for studying input
reduction of LSM. One is that the input dimension of large images requires
efficient processing. Another one is that input exploration is generally more
economic than architecture search. To mitigate the difficulty in effectively
dealing with huge input spaces of LSM, and to find that whether input reduction
can enhance LSM performance, we explore several input patterns, namely
fullscale, scanline, chessboard, and patch. Several datasets have been used to
evaluate the performance of the proposed input patterns, including two spatio
image datasets and one spatio-temporal image database. The experimental results
show that the reduced input under chessboard pattern improves the accuracy by
up to 5%, and reduces execution time by up to 50% with up to 75\% less input
storage than the fullscale input pattern for LSM.
- Abstract(参考訳): スパイキングニューラルネットワーク(SNN)は低消費電力で注目を集めている。
しかし、SNNのトレーニングは難しい。
貯留層コンピューティングの主要なタイプであるLiquid State Machine (LSM) は、SNN間のトレーニングコストの低さで広く認知されている。
性能向上のための LSM トポロジの探索には,資源負荷と時間を要する超パラメータ探索が必要となることが多い。
入力スケール縮小が LSM に与える影響について検討する。
LSMの入力低減を研究する主な理由は2つある。
ひとつは、大きな画像の入力次元が効率的な処理を必要とすることだ。
もうひとつは、入力探索がアーキテクチャ探索よりも一般的に経済的であることだ。
LSMの巨大な入力空間を効果的に扱うことの難しさを軽減し、入力削減がLSMの性能を向上させることができるかどうかを確認するために、フルスケール、スキャンライン、チェスボード、パッチなどの入力パターンを探索する。
2つの時空間画像データセットと1つの時空間画像データベースを含む,提案した入力パターンの性能を評価するために,いくつかのデータセットが使用されている。
実験結果から,チェスボードパターンによる入力の削減により,最大5%の精度向上が達成され,LSMのフルスケール入力パターンよりも最大75%少ない入力ストレージで実行時間を最大50%削減できることがわかった。
関連論文リスト
- Temporal and Spatial Reservoir Ensembling Techniques for Liquid State Machines [2.249916681499244]
LSM(Liquid State Machines)は、脳内のニューロンの組織にインスパイアされた貯水池コンピューティングの特殊な例である。
マルチ長スケール貯水池アンサンブル(MuLRE)とテンポラル励振部貯水池アンサンブル(TEPRE)を効果的に組み合わせるための2つのアプローチを提案する。
3600-neuron LSMモデルを用いて,N-MNISTの98.1%のテスト精度を実現した。
また、視覚タスクのための多長スケール貯水池アンサンブルモデルと協調して作業するために、受動的フィールドベース入力重みを貯水池に提案する。
論文 参考訳(メタデータ) (2024-11-18T09:35:22Z) - Fast Graph Sharpness-Aware Minimization for Enhancing and Accelerating Few-Shot Node Classification [53.727688136434345]
グラフニューラルネットワーク(GNN)はノード分類において優れた性能を示している。
高速グラフシャープネス認識最小化(FGSAM)を提案する。
提案アルゴリズムは,FSNCタスクにおいて,計算コストの低い標準SAMよりも優れる。
論文 参考訳(メタデータ) (2024-10-22T09:33:29Z) - HRVMamba: High-Resolution Visual State Space Model for Dense Prediction [60.80423207808076]
効率的なハードウェアを意識した設計のステートスペースモデル(SSM)は、コンピュータビジョンタスクにおいて大きな可能性を証明している。
これらのモデルは、誘導バイアスの不足、長距離の忘れ、低解像度の出力表現の3つの主要な課題によって制約されている。
本稿では, 変形可能な畳み込みを利用して, 長距離忘れ問題を緩和する動的ビジュアル状態空間(DVSS)ブロックを提案する。
また,DVSSブロックに基づく高分解能視覚空間モデル(HRVMamba)を導入し,プロセス全体を通して高分解能表現を保存する。
論文 参考訳(メタデータ) (2024-10-04T06:19:29Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Non-pooling Network for medical image segmentation [11.956054700035326]
本稿では,非プールネットワーク(NPNet)を提案する。
NPNetのセマンティックセマンティックセグメンテーションモデルを,w i t h多重状態(SOTA)モデルと比較した3つのベンチマークデータセットで評価した。
論文 参考訳(メタデータ) (2023-02-21T02:49:16Z) - SALISA: Saliency-based Input Sampling for Efficient Video Object
Detection [58.22508131162269]
ビデオオブジェクト検出のための新しい一様SALiencyベースの入力SAmpling技術であるSALISAを提案する。
SALISAは小物体の検出を著しく改善することを示す。
論文 参考訳(メタデータ) (2022-04-05T17:59:51Z) - Efficient Non-Local Contrastive Attention for Image Super-Resolution [48.093500219958834]
非局所的注意(NLA)は、自然画像の内在的特徴相関を利用して、単一画像超解法(SISR)に大きな改善をもたらす。
本稿では,長期視覚モデリングを行い,より関連性の高い非局所的特徴を活用するための,効率的な非局所的コントラスト注意(ENLCA)を提案する。
論文 参考訳(メタデータ) (2022-01-11T05:59:09Z) - The Foes of Neural Network's Data Efficiency Among Unnecessary Input
Dimensions [6.99674326582747]
本研究では,タスク非関連な入力次元がデータ効率を著しく低下させることを示す。
これは、データ効率の向上を可能にするためにタスク非関連次元を削除するメカニズムの必要性を強調します。
論文 参考訳(メタデータ) (2021-07-13T21:52:02Z) - SpikeMS: Deep Spiking Neural Network for Motion Segmentation [7.491944503744111]
textitSpikeMSは、モーションセグメンテーションの大規模な問題に対する最初のディープエンコーダデコーダSNNアーキテクチャである。
textitSpikeMSは,テキストインクリメンタルな予測や,より少ない量のテストデータからの予測を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-13T21:34:55Z) - DIET-SNN: Direct Input Encoding With Leakage and Threshold Optimization
in Deep Spiking Neural Networks [8.746046482977434]
DIET-SNNは、膜漏れと発射閾値を最適化するために勾配降下で訓練された低深さスパイクネットワークである。
我々は,VGGおよびResNetアーキテクチャ上のCIFARおよびImageNetデータセットから画像分類タスクのDIET-SNNを評価する。
我々は、ImageNetデータセット上の5つのタイムステップ(推論レイテンシ)でトップ1の精度を69%達成し、同等の標準ANNよりも12倍少ない計算エネルギーを実現した。
論文 参考訳(メタデータ) (2020-08-09T05:07:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。