論文の概要: Pulse shape discrimination based on the Tempotron: a powerful classifier
on GPU
- arxiv url: http://arxiv.org/abs/2305.18205v1
- Date: Fri, 26 May 2023 13:24:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 14:11:55.809432
- Title: Pulse shape discrimination based on the Tempotron: a powerful classifier
on GPU
- Title(参考訳): テンポトロンに基づくパルス形状判別:gpuを用いた強力な分類器
- Authors: Haoran Liu, Peng Li, Ming-Zhe Liu, Kai-Ming Wang, Zhuo Zuo, Bing-Qi
Liu
- Abstract要約: 研究はGPUアクセラレーションを用いて実験を行い、CPUベースのモデルと比較して500倍以上のスピードアップを実現した。
実験の結果,テンポトロンは高い識別精度を達成できる強力な分類器であることがわかった。
- 参考スコア(独自算出の注目度): 3.5378343140278994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study introduces the Tempotron, a powerful classifier based on a
third-generation neural network model, for pulse shape discrimination. By
eliminating the need for manual feature extraction, the Tempotron model can
process pulse signals directly, generating discrimination results based on
learned prior knowledge. The study performed experiments using GPU
acceleration, resulting in over a 500 times speedup compared to the CPU-based
model, and investigated the impact of noise augmentation on the Tempotron's
performance. Experimental results showed that the Tempotron is a potent
classifier capable of achieving high discrimination accuracy. Furthermore,
analyzing the neural activity of Tempotron during training shed light on its
learning characteristics and aided in selecting the Tempotron's
hyperparameters. The dataset used in this study and the source code of the
GPU-based Tempotron are publicly available on GitHub at
https://github.com/HaoranLiu507/TempotronGPU.
- Abstract(参考訳): 本研究では,第3世代ニューラルネットワークモデルに基づくパルス形状識別のための強力な分類器であるtempotronを提案する。
手動の特徴抽出を不要にすることで、テンポトロンモデルはパルス信号を直接処理し、学習前の知識に基づいて識別結果を生成することができる。
この研究では、GPUアクセラレーションを用いた実験を行い、CPUベースモデルと比較して500倍以上のスピードアップを実現し、テンポトロンの性能に対するノイズ増大の影響を調査した。
実験の結果,テンポトロンは高い識別精度を達成できる強力な分類器であることがわかった。
さらに、トレーニング中のテンポトロンの神経活動の分析は、学習特性に光を当て、テンポトロンのハイパーパラメータを選択するのに役立った。
この研究で使用されたデータセットとGPUベースのTempotronのソースコードはGitHubでhttps://github.com/HaoranLiu507/TempotronGPUで公開されている。
関連論文リスト
- Disentangling Spatial and Temporal Learning for Efficient Image-to-Video
Transfer Learning [59.26623999209235]
ビデオの空間的側面と時間的側面の学習を両立させるDiSTを提案する。
DiSTの非絡み合い学習は、大量の事前学習パラメータのバックプロパゲーションを避けるため、非常に効率的である。
5つのベンチマークの大規模な実験は、DiSTが既存の最先端メソッドよりも優れたパフォーマンスを提供することを示す。
論文 参考訳(メタデータ) (2023-09-14T17:58:33Z) - What Can Simple Arithmetic Operations Do for Temporal Modeling? [100.39047523315662]
テンポラルモデリングはビデオコンテンツを理解する上で重要な役割を担っている。
従来の研究は、強力なデバイスの開発により、時系列を通して複雑な時間関係を構築していた。
本研究では,時間的モデリングのための4つの簡単な算術演算の可能性について検討する。
論文 参考訳(メタデータ) (2023-07-18T00:48:56Z) - GC-GRU-N for Traffic Prediction using Loop Detector Data [5.735035463793008]
シアトルのループ検出器のデータを15分以上収集し、その問題を時空で再現する。
モデルは、最速の推論時間と非常に近いパフォーマンスで第2位(トランスフォーマー)。
論文 参考訳(メタデータ) (2022-11-13T06:32:28Z) - DyG2Vec: Efficient Representation Learning for Dynamic Graphs [26.792732615703372]
時間グラフニューラルネットワークは、時間パターンを自動的に抽出することで、帰納的表現の学習において有望な結果を示している。
時間的エッジエンコーディングとウィンドウベースのサブグラフサンプリングを利用してタスクに依存しない埋め込みを生成する。
論文 参考訳(メタデータ) (2022-10-30T18:13:04Z) - EgoSpeed-Net: Forecasting Speed-Control in Driver Behavior from
Egocentric Video Data [24.32406053197066]
本稿では,新しいグラフ畳み込みネットワーク(GCN),すなわちEgoSpeed-Netを提案する。
我々は、時間とともに物体の位置が変わることが、将来の速度変化を予測する上で非常に有用な手がかりとなるという事実に動機づけられている。
本研究では,ホンダ研究所ドライビングデータセットの広範な実験を行い,EgoSpeed-Netの優れた性能を実証する。
論文 参考訳(メタデータ) (2022-09-27T15:25:57Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - TSM: Temporal Shift Module for Efficient and Scalable Video
Understanding on Edge Device [58.776352999540435]
本稿では,高能率かつ高能率な時間シフトモジュール(TSM)を提案する。
TSMは2次元CNNに挿入され、ゼロ計算とゼロパラメータでの時間的モデリングを実現する。
Jetson NanoとGalaxy Note8のオンラインビデオ認識では、74fpsと29fpsのハイフレームレートを実現している。
論文 参考訳(メタデータ) (2021-09-27T17:59:39Z) - Inductive biases and Self Supervised Learning in modelling a physical
heating system [0.0]
本稿では,物理系に関する帰納バイアスを推測する。
このバイアスを使って、実際のシステムをモデル化できる新しいニューラルネットワークアーキテクチャを導出します。
提案されたアーキテクチャファミリーであるDelayは、遅延応答を持つシステムを制御するために実際のシナリオで使用できる。
論文 参考訳(メタデータ) (2021-04-23T08:50:41Z) - An Internal Clock Based Space-time Neural Network for Motion Speed
Recognition [16.835822958959557]
開発したシステムは、スパイクトレインエンコーダ、内部クロック動作を備えたスパイキングニューラルネットワーク(SNN)、パターン変換ブロック、ネットワーク動的依存塑性(NDDP)学習ブロックを備える。
我々は,マンガと実世界のビデオの両方をトレーニングベンチマークとして採用し,本システムでは速度差の大きい動きを認識できないことを示した。
推定精度は83.3%(カルトゥーンビデオ)と75%(実世界のビデオ)である。
論文 参考訳(メタデータ) (2020-01-28T04:07:33Z) - Temporal Pulses Driven Spiking Neural Network for Fast Object
Recognition in Autonomous Driving [65.36115045035903]
スパイキングニューラルネットワーク(SNN)を用いた生時間パルスで直接物体認識問題に対処する手法を提案する。
各種データセットを用いて評価した結果,提案手法は最先端の手法に匹敵する性能を示しながら,優れた時間効率を実現している。
論文 参考訳(メタデータ) (2020-01-24T22:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。