論文の概要: Using CSNNs to Perform Event-based Data Processing & Classification on ASL-DVS
- arxiv url: http://arxiv.org/abs/2408.00611v1
- Date: Thu, 1 Aug 2024 14:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 20:26:35.111232
- Title: Using CSNNs to Perform Event-based Data Processing & Classification on ASL-DVS
- Title(参考訳): ASL-DVSにおけるCSNNを用いたイベントベースのデータ処理と分類
- Authors: Ria Patel, Sujit Tripathy, Zachary Sublett, Seoyoung An, Riya Patel,
- Abstract要約: ASL-DVSジェスチャデータセットにおける空間的および時間的関係を学習するための畳み込みスパイクニューラルネットワークアーキテクチャを開発した。
ASL-DVSデータセットの事前処理したサブセットの分類を行い、文字記号を識別し、100%の訓練精度を得た。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in bio-inspired visual sensing and neuromorphic computing have led to the development of various highly efficient bio-inspired solutions with real-world applications. One notable application integrates event-based cameras with spiking neural networks (SNNs) to process event-based sequences that are asynchronous and sparse, making them difficult to handle. In this project, we develop a convolutional spiking neural network (CSNN) architecture that leverages convolutional operations and recurrent properties of a spiking neuron to learn the spatial and temporal relations in the ASL-DVS gesture dataset. The ASL-DVS gesture dataset is a neuromorphic dataset containing hand gestures when displaying 24 letters (A to Y, excluding J and Z due to the nature of their symbols) from the American Sign Language (ASL). We performed classification on a pre-processed subset of the full ASL-DVS dataset to identify letter signs and achieved 100\% training accuracy. Specifically, this was achieved by training in the Google Cloud compute platform while using a learning rate of 0.0005, batch size of 25 (total of 20 batches), 200 iterations, and 10 epochs.
- Abstract(参考訳): バイオインスパイアされた視覚センシングとニューロモーフィックコンピューティングの進歩は、現実世界の応用で様々な高効率なバイオインスパイアされたソリューションの開発に繋がった。
注目すべきアプリケーションは、イベントベースのカメラとスパイクニューラルネットワーク(SNN)を統合して、非同期でスパースなイベントベースのシーケンスを処理することで、処理が困難になる。
本稿では,ASL-DVSジェスチャデータセットの空間的および時間的関係を学習するために,スペーシングニューロンの畳み込み操作と繰り返し特性を利用する畳み込みスパイキングニューラルネットワーク(CSNN)アーキテクチャを開発する。
ASL-DVSジェスチャーデータセットは、アメリカ手話(ASL)から24文字(A〜Y、記号の性質上J、Zを除く)を表示する際に手振りを含むニューロモルフィックデータセットである。
ASL-DVSデータセットの事前処理したサブセットの分類を行い、文字記号を識別し、100\%のトレーニング精度を得た。
具体的には、学習速度0.0005、バッチサイズ25(合計20バッチ)、200イテレーション、10エポックを使用して、Google Cloudのコンピューティングプラットフォームでトレーニングすることで実現した。
関連論文リスト
- The Brain's Bitter Lesson: Scaling Speech Decoding With Self-Supervised Learning [3.649801602551928]
我々は、異種録音からの学習を表現するために、神経科学にインスパイアされた自己教師対象のセットをニューラルネットワークとともに開発する。
その結果、これらの目的によって学習された表現は、データとともにスケールし、主題、データセット、タスクをまたいで一般化し、同等の自己監督的アプローチを上回ります。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - Deep Learning for real-time neural decoding of grasp [0.0]
本稿では,ニューラルネットワークの復号化のためのDeep Learningに基づく手法を提案する。
提案手法の主な目的は、これまでの神経科学知識に頼ることなく、最先端の復号精度を改善することである。
論文 参考訳(メタデータ) (2023-11-02T08:26:29Z) - Visual Self-supervised Learning Scheme for Dense Prediction Tasks on X-ray Images [3.782392436834913]
自己教師付き学習(SSL)は自然言語処理(NLP)においてかなりの進歩をもたらした
しかし、既存のビジュアルSSLモデルにコントラスト学習を組み込むことは、しばしば監督対象を超越する、かなりの進歩をもたらした。
ここでは、セキュリティ検査X線画像を用いた密集予測タスクに着目し、提案モデルであるセグメントローカライゼーション(SegLoc)を評価する。
インスタンスローカライゼーション(InsLoc)モデルに基づいて、SegLocはコントラスト学習における重要な課題の1つ、すなわち、クエリ埋め込みの偽陰性ペアに対処する。
論文 参考訳(メタデータ) (2023-10-12T15:42:17Z) - Adaptive Axonal Delays in feedforward spiking neural networks for
accurate spoken word recognition [4.018601183900039]
スパイキングニューラルネットワーク(SNN)は、正確で効率的な自動音声認識システムを構築するための有望な研究手段である。
近年のオーディオ・ツー・スパイク符号化とトレーニングアルゴリズムの進歩により、SNNを実践的なタスクに適用することが可能になった。
本研究は,複雑な時間構造をもつタスクに対して,軸索遅延を訓練する可能性を示す。
論文 参考訳(メタデータ) (2023-02-16T22:19:04Z) - GNN-SL: Sequence Labeling Based on Nearest Examples via GNN [50.55076156520809]
グラフニューラルネットワークシーケンスラベリング(GNN-SL)を導入する。
GNN-SLは、トレーニングセット全体から取得した類似のタグ付け例でバニラシーケンスラベリングモデル出力を増強する。
我々は3つの典型的なシーケンスラベリングタスクについて様々な実験を行う。
GNN-SLはPKUの96.9(+0.2)、CITYUの98.3(+0.4)、MSRの98.5(+0.2)、CWSタスクのASの96.9(+0.2)を達成している。
論文 参考訳(メタデータ) (2022-12-05T04:22:00Z) - Neural Implicit Dictionary via Mixture-of-Expert Training [111.08941206369508]
ニューラルインシシット辞書(NID)を学習することで、データとトレーニング効率の両方を達成する汎用INRフレームワークを提案する。
我々のNIDは、所望の関数空間にまたがるように調整された座標ベースのImpworksのグループを組み立てる。
実験の結果,NIDは最大98%の入力データで2次元画像や3次元シーンの再現を2桁高速化できることがわかった。
論文 参考訳(メタデータ) (2022-07-08T05:07:19Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - N-Omniglot: a Large-scale Neuromorphic Dataset for Spatio-Temporal
Sparse Few-shot Learning [10.812738608234321]
我々は、Dynamic Vision Sensor (DVS)を用いて、最初のニューロモルフィックデータセット、N-Omniglotを提供する。
1623種類の手書き文字が含まれており、クラスごとに20のサンプルしか持たない。
このデータセットは、数ショットの学習領域でSNNアルゴリズムを開発するための強力なチャレンジと適切なベンチマークを提供する。
論文 参考訳(メタデータ) (2021-12-25T12:41:34Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - Self-supervised Learning on Graphs: Deep Insights and New Direction [66.78374374440467]
自己教師付き学習(SSL)は、ラベルのないデータにドメイン固有のプレテキストタスクを作成することを目的としている。
グラフニューラルネットワーク(GNN)の形でのグラフ領域へのディープラーニングの一般化への関心が高まっている。
論文 参考訳(メタデータ) (2020-06-17T20:30:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。