論文の概要: Gradient-Free Supervised Learning using Spike-Timing-Dependent Plasticity for Image Recognition
- arxiv url: http://arxiv.org/abs/2410.16524v1
- Date: Mon, 21 Oct 2024 21:32:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:27:41.718085
- Title: Gradient-Free Supervised Learning using Spike-Timing-Dependent Plasticity for Image Recognition
- Title(参考訳): スパイクタイミング依存塑性を用いた画像認識のためのグラディエントな教師なし学習
- Authors: Wei Xie,
- Abstract要約: スパイキングニューラルネットワークにおける教師あり学習へのアプローチは、画像認識のためのスパイクタイピング依存の可塑性と組み合わせて、勾配のない手法を用いて提示される。
提案するネットワークアーキテクチャは、複数の層にスケーラブルであり、より複雑で深いSNNモデルの開発を可能にする。
- 参考スコア(独自算出の注目度): 3.087000217989688
- License:
- Abstract: An approach to supervised learning in spiking neural networks is presented using a gradient-free method combined with spike-timing-dependent plasticity for image recognition. The proposed network architecture is scalable to multiple layers, enabling the development of more complex and deeper SNN models. The effectiveness of this method is demonstrated by its application to the MNIST dataset, showing good learning accuracy. The proposed method provides a robust and efficient alternative to the backpropagation-based method in supervised learning.
- Abstract(参考訳): スパイキングニューラルネットワークにおける教師あり学習へのアプローチは、画像認識のためのスパイクタイピング依存の可塑性と組み合わせて、勾配のない手法を用いて提示される。
提案するネットワークアーキテクチャは、複数の層にスケーラブルであり、より複雑で深いSNNモデルの開発を可能にする。
本手法の有効性は,MNISTデータセットへの適用によって実証され,学習精度が向上した。
提案手法は,教師あり学習におけるバックプロパゲーションに基づく手法の,堅牢で効率的な代替手段を提供する。
関連論文リスト
- Self-Supervised Learning in Deep Networks: A Pathway to Robust Few-Shot Classification [0.0]
まず、ラベルのない大量のデータから共通特徴表現を学習できるように、自己スーパービジョンでモデルを事前訓練する。
その後、数ショットのデータセットMini-ImageNetで微調整を行い、限られたデータの下でモデルの精度と一般化能力を改善する。
論文 参考訳(メタデータ) (2024-11-19T01:01:56Z) - Improved detection of discarded fish species through BoxAL active learning [0.2544632696242629]
本研究では,より高速なR-CNNオブジェクト検出モデルの認識精度を推定する,BoxALという能動的学習手法を提案する。
この方法では、未ラベルのプールから最も不確実なトレーニングイメージを選択し、オブジェクト検出モデルのトレーニングに使用することができる。
また,本研究では,サンプル化した新データが,未ラベルデータよりもトレーニングに有用であることが確認された。
論文 参考訳(メタデータ) (2024-10-07T10:01:30Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Grad-Instructor: Universal Backpropagation with Explainable Evaluation Neural Networks for Meta-learning and AutoML [0.0]
評価ニューラルネットワーク(ENN)は、ターゲットネットワークの性能を予測するために、深層強化学習を通じて訓練される。
ENNは、バックプロパゲーション中に追加評価機能として機能する。
論文 参考訳(メタデータ) (2024-06-15T08:37:51Z) - Uncertainty-aware Sampling for Long-tailed Semi-supervised Learning [89.98353600316285]
擬似ラベルサンプリングのモデル化プロセスに不確実性を導入し、各クラスにおけるモデル性能が異なる訓練段階によって異なることを考慮した。
このアプローチにより、モデルは異なる訓練段階における擬似ラベルの不確かさを認識でき、それによって異なるクラスの選択閾値を適応的に調整できる。
FixMatchのような他の手法と比較して、UDTSは自然シーン画像データセットの精度を少なくとも5.26%、1.75%、9.96%、1.28%向上させる。
論文 参考訳(メタデータ) (2024-01-09T08:59:39Z) - KAKURENBO: Adaptively Hiding Samples in Deep Neural Network Training [2.8804804517897935]
深層ニューラルネットワークのトレーニングにおいて,最も重要でないサンプルを隠蔽する手法を提案する。
我々は,学習プロセス全体への貢献に基づいて,与えられたエポックを除外するサンプルを適応的に見つける。
本手法は, ベースラインと比較して, 最大22%の精度でトレーニング時間を短縮できる。
論文 参考訳(メタデータ) (2023-10-16T06:19:29Z) - Data Efficient Contrastive Learning in Histopathology using Active Sampling [0.0]
ディープラーニングアルゴリズムは、デジタル病理学において堅牢な定量的分析を提供することができる。
これらのアルゴリズムは大量の注釈付きトレーニングデータを必要とする。
アドホックなプリテキストタスクを用いて特徴を学習するための自己教師付き手法が提案されている。
そこで本研究では,小規模なプロキシネットワークを用いたトレーニングセットから情報的メンバを積極的に抽出する手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T18:51:22Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。