論文の概要: A Unified Platform to Evaluate STDP Learning Rule and Synapse Model using Pattern Recognition in a Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2506.19377v1
- Date: Tue, 24 Jun 2025 07:10:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.531382
- Title: A Unified Platform to Evaluate STDP Learning Rule and Synapse Model using Pattern Recognition in a Spiking Neural Network
- Title(参考訳): スパイクニューラルネットワークにおけるパターン認識を用いたSTDP学習ルールとシナプスモデルの評価のための統一プラットフォーム
- Authors: Jaskirat Singh Maskeen, Sandip Lashkare,
- Abstract要約: We developed a unified platform to evaluate Ideal, Linear, and Non-linear $textPr_0.7textCa_0.3textMnO_3$ memristor-based synapse model。
列車セットが小さいMNISTと大型テストセットの2層SNNでは, それぞれ92.73 %, 91.07 %, 80 %の精度を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a unified platform to evaluate Ideal, Linear, and Non-linear $\text{Pr}_{0.7}\text{Ca}_{0.3}\text{MnO}_{3}$ memristor-based synapse models, each getting progressively closer to hardware realism, alongside four STDP learning rules in a two-layer SNN with LIF neurons and adaptive thresholds for five-class MNIST classification. On MNIST with small train set and large test set, our two-layer SNN with ideal, 25-state, and 12-state nonlinear memristor synapses achieves 92.73 %, 91.07 %, and 80 % accuracy, respectively, while converging faster and using fewer parameters than comparable ANN/CNN baselines.
- Abstract(参考訳): We developed a unified platform to evaluate Ideal, Linear, and Non-linear $\text{Pr}_{0.7}\text{Ca}_{0.3}\text{MnO}_{3}$ memristor-based synapse model。
列車セットが小さいMNISTでは, 理想, 25状態, 12状態非線形メムリスタシナプスを持つ2層SNNは, それぞれ92.73 %, 91.07 %, 80 %の精度を実現し, より高速に収束し, 同等のANN/CNNベースラインよりも少ないパラメータを使用する。
関連論文リスト
- Entanglement Classification of Arbitrary Three-Qubit States via Artificial Neural Networks [2.715284063484557]
3ビットシステムの絡みを検知・分類する人工知能ニューラルネットワーク(ANN)を設計・実装する。
モデルはランダムに生成された状態のシミュレーションデータセット上で訓練され、検証される。
注目すべきは、密度行列の7つの対角要素をANNに供給するだけで、両方のタスクに対して94%以上の精度が得られることである。
論文 参考訳(メタデータ) (2024-11-18T06:50:10Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Bayesian Neural Network Language Modeling for Speech Recognition [59.681758762712754]
長期記憶リカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端のニューラルネットワーク言語モデル(NNLM)は非常に複雑になりつつある。
本稿では,LSTM-RNN と Transformer LM の基盤となる不確実性を考慮するために,ベイズ学習フレームワークの全体構造を提案する。
論文 参考訳(メタデータ) (2022-08-28T17:50:19Z) - Text Classification in Memristor-based Spiking Neural Networks [0.0]
IMDB映画レビューデータセットにおける感情分析タスクを実演するために,仮想記憶器アレイを用いたシミュレーションフレームワークを開発した。
トレーニング済みのANNをmmristorベースのSNNに変換し,84.86%をmemristorベースのSNNを直接トレーニングすることで,85.88%の分類精度を実現する。
また, スパイクトレイン長, リードノイズ, および重み更新停止条件などの大域的パラメータが, どちらのアプローチにおいてもニューラルネットワークに与える影響についても検討した。
論文 参考訳(メタデータ) (2022-07-27T18:08:31Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - NL-CNN: A Resources-Constrained Deep Learning Model based on Nonlinear
Convolution [0.0]
NL-CNNと略される新しい畳み込みニューラルネットワークモデルが提案され、非線型畳み込みは畳み込み+非線形性層のカスケードでエミュレートされる。
いくつかの広く知られているデータセットのパフォーマンス評価が提供され、いくつかの関連する特徴を示している。
論文 参考訳(メタデータ) (2021-01-30T13:38:42Z) - Generating Efficient DNN-Ensembles with Evolutionary Computation [3.28217012194635]
私たちは、より速く、より小さく、より正確なディープラーニングモデルを作成するためのツールとして、アンサンブル学習を活用しています。
EARNを10の画像分類データセット上で実行し、CPUとGPUプラットフォームの両方で32の最先端DCNNを初期プールします。
スピードアップが7.60Times$、パラメータが10times$、精度が6.01%$まで向上したモデルを生成します。
論文 参考訳(メタデータ) (2020-09-18T09:14:56Z) - L-Vector: Neural Label Embedding for Domain Adaptation [62.112885747045766]
本研究では、未ペアデータを用いたディープニューラルネットワーク(DNN)音響モデルの領域適応のための新しいニューラルラベル埋め込み(NLE)手法を提案する。
NLEは1ホットラベルによる直接再トレーニングよりも14.1%の相対的な単語誤り率の低減を実現している。
論文 参考訳(メタデータ) (2020-04-25T06:40:31Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。