論文の概要: Supervised Learning without Backpropagation using Spike-Timing-Dependent Plasticity for Image Recognition
- arxiv url: http://arxiv.org/abs/2410.16524v2
- Date: Tue, 11 Feb 2025 22:26:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:45:28.226444
- Title: Supervised Learning without Backpropagation using Spike-Timing-Dependent Plasticity for Image Recognition
- Title(参考訳): 画像認識のためのスパイクタイミング依存塑性を用いたバックプロパゲーションなしの教師付き学習
- Authors: Wei Xie,
- Abstract要約: 本研究では,従来のバックプロパゲーションに依存しないスパイクニューラルネットワークのための新しい教師あり学習手法を提案する。
代わりに、画像認識タスクの教師付きフレームワーク内にスパイクタイピング依存の塑性(STDP)を採用している。
- 参考スコア(独自算出の注目度): 3.087000217989688
- License:
- Abstract: This study introduces a novel supervised learning approach for spiking neural networks that does not rely on traditional backpropagation. Instead, it employs spike-timing-dependent plasticity (STDP) within a supervised framework for image recognition tasks. The effectiveness of this method is demonstrated using the MNIST dataset. The model achieves approximately 40\% learning accuracy with just 10 training stimuli, where each category is exposed to the model only once during training (one-shot learning). With larger training samples, the accuracy increases up to 87\%, maintaining negligible ambiguity. Notably, with only 10 hidden neurons, the model reaches 89\% accuracy with around 10\% ambiguity. This proposed method offers a robust and efficient alternative to traditional backpropagation-based supervised learning techniques.
- Abstract(参考訳): 本研究では,従来のバックプロパゲーションに依存しないスパイクニューラルネットワークのための新しい教師あり学習手法を提案する。
代わりに、画像認識タスクの教師付きフレームワーク内にスパイクタイピング依存の塑性(STDP)を採用している。
MNISTデータセットを用いて本手法の有効性を実証した。
モデルは約40\%の学習精度を10のトレーニング刺激で達成し、各カテゴリはトレーニング中(ワンショット学習)に1度だけモデルに露出する。
より大きなトレーニングサンプルでは、精度は87\%まで上昇し、無視できる曖昧さが維持される。
特に、10個の隠れニューロンしか持たないモデルでは、およそ10倍の曖昧さで89倍の精度に達する。
提案手法は、従来のバックプロパゲーションに基づく教師あり学習技術に代わる、堅牢で効率的な代替手段を提供する。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Improved detection of discarded fish species through BoxAL active learning [0.2544632696242629]
本研究では,より高速なR-CNNオブジェクト検出モデルの認識精度を推定する,BoxALという能動的学習手法を提案する。
この方法では、未ラベルのプールから最も不確実なトレーニングイメージを選択し、オブジェクト検出モデルのトレーニングに使用することができる。
また,本研究では,サンプル化した新データが,未ラベルデータよりもトレーニングに有用であることが確認された。
論文 参考訳(メタデータ) (2024-10-07T10:01:30Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Grad-Instructor: Universal Backpropagation with Explainable Evaluation Neural Networks for Meta-learning and AutoML [0.0]
評価ニューラルネットワーク(ENN)は、ターゲットネットワークの性能を予測するために、深層強化学習を通じて訓練される。
ENNは、バックプロパゲーション中に追加評価機能として機能する。
論文 参考訳(メタデータ) (2024-06-15T08:37:51Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - KAKURENBO: Adaptively Hiding Samples in Deep Neural Network Training [2.8804804517897935]
深層ニューラルネットワークのトレーニングにおいて,最も重要でないサンプルを隠蔽する手法を提案する。
我々は,学習プロセス全体への貢献に基づいて,与えられたエポックを除外するサンプルを適応的に見つける。
本手法は, ベースラインと比較して, 最大22%の精度でトレーニング時間を短縮できる。
論文 参考訳(メタデータ) (2023-10-16T06:19:29Z) - Data Efficient Contrastive Learning in Histopathology using Active Sampling [0.0]
ディープラーニングアルゴリズムは、デジタル病理学において堅牢な定量的分析を提供することができる。
これらのアルゴリズムは大量の注釈付きトレーニングデータを必要とする。
アドホックなプリテキストタスクを用いて特徴を学習するための自己教師付き手法が提案されている。
そこで本研究では,小規模なプロキシネットワークを用いたトレーニングセットから情報的メンバを積極的に抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T18:51:22Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。