論文の概要: FaFeSort: A Fast and Few-shot End-to-end Neural Network for Multi-channel Spike Sorting
- arxiv url: http://arxiv.org/abs/2409.13067v1
- Date: Thu, 19 Sep 2024 20:01:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 12:03:17.531144
- Title: FaFeSort: A Fast and Few-shot End-to-end Neural Network for Multi-channel Spike Sorting
- Title(参考訳): FaFeSort: マルチチャネルスパイクソーティングのための高速かつ少ないエンドツーエンドニューラルネットワーク
- Authors: Yuntao Han, Shiwei Wang,
- Abstract要約: FaFeSortは、数ショットの学習と並列化可能な後処理を備えた、エンドツーエンドのニューラルネットワークベースのスパイクソータである。
我々のフレームワークは、スクラッチからのトレーニングに比べて、トレーニングに必要な注釈付きスパイクの数を44%削減し、最大25.68%の精度を達成する。
- 参考スコア(独自算出の注目度): 3.094548175033156
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Decoding extracellular recordings is a crucial task in electrophysiology and brain-computer interfaces. Spike sorting, which distinguishes spikes and their putative neurons from extracellular recordings, becomes computationally demanding with the increasing number of channels in modern neural probes. To address the intensive workload and complex neuron interactions, we propose FaFeSort, an end-to-end neural network-based spike sorter with few-shot learning and parallelizable post-processing. Our framework reduces the required number of annotated spikes for training by 44% compared to training from scratch, achieving up to 25.68% higher accuracy. Additionally, our novel post-processing algorithm is compatible to the deep learning frameworks, making FaFeSort significantly faster than state-of-the-art spike sorters. On synthesized Neuropixels recordings, FaFeSort achieves comparable accuracy with Kilosort4 sorting 50 seconds of data in only 1.32 seconds. Our method demonstrates robustness across various probe geometries, noise levels, and drift conditions, offering a substantial improvement in both accuracy and runtime efficiency comparing to existing spike sorters.
- Abstract(参考訳): 細胞外記録の復号化は電気生理学的および脳-コンピュータインターフェースにおいて重要な課題である。
スパイクソート(スパイクソート)はスパイクとそのニューロンを細胞外記録と区別し、現代のニューラルプローブのチャネル数の増加とともに計算的に要求される。
集約的なワークロードと複雑なニューロンの相互作用に対処するために,数ショットの学習と並列化が可能な後処理を備えた,エンドツーエンドのニューラルネットワークベースのスパイクソータであるFaFeSortを提案する。
我々のフレームワークは、スクラッチからのトレーニングに比べて、トレーニングに必要な注釈付きスパイクの数を44%削減し、最大25.68%の精度を達成する。
さらに、新しい後処理アルゴリズムはディープラーニングフレームワークと互換性があり、FaFeSortは最先端のスパイクソータよりも大幅に高速である。
合成されたニューロピクセル記録において、FaFeSortはKilosort4で50秒のデータをわずか1.32秒でソートすることで、同等の精度を達成する。
提案手法は, 種々のプローブ測地, 騒音レベル, ドリフト条件にまたがるロバスト性を実証し, 既存のスパイクソーダと比較して精度と実行効率を著しく向上する。
関連論文リスト
- SimSort: A Powerful Framework for Spike Sorting by Large-Scale Electrophysiology Simulation [23.201123508726155]
スパイクソートは神経記録において重要なプロセスであり、脳内の電極によって記録された個々のニューロンから電気信号を識別し、分離する。
textbfSimSortはスパイクソートのための事前学習フレームワークである。
注目すべきは、シミュレーションデータセットでトレーニングされた場合、SimSortは実世界のスパイクソートタスクに対して、ゼロショットの強い一般化を実証する。
論文 参考訳(メタデータ) (2025-02-05T14:19:41Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Newton Losses: Using Curvature Information for Learning with Differentiable Algorithms [80.37846867546517]
カスタム目的の8つの異なるニューラルネットワークのトレーニング方法を示す。
我々はその2次情報を経験的フィッシャー行列を通して活用する。
ロスロスロスシブルアルゴリズムを用いて、少ない微分可能アルゴリズムに対する大幅な改善を実現する。
論文 参考訳(メタデータ) (2024-10-24T18:02:11Z) - Ordering for Non-Replacement SGD [7.11967773739707]
我々は,アルゴリズムの非置換形式に対する収束率を改善する順序付けを求める。
我々は,強い凸関数と凸関数のステップサイズを一定かつ小さくするための最適順序付けを開発する。
さらに、注文とミニバッチを組み合わせることで、より複雑なニューラルネットワークにも適用できます。
論文 参考訳(メタデータ) (2023-06-28T00:46:58Z) - NeuSort: An Automatic Adaptive Spike Sorting Approach with Neuromorphic
Models [24.02427573873539]
スパイクソートは、ニューラルデータ処理における重要なステップである。
本研究ではニューロモルフィックモデルを用いた新しいオンラインスパイクソーターであるNeuSortを開発することを目的とする。
論文 参考訳(メタデータ) (2023-04-20T12:55:49Z) - Adaptive SpikeDeep-Classifier: Self-organizing and self-supervised
machine learning algorithm for online spike sorting [0.0]
ユーザ意図の復号化に成功する2つの重要な要因は、埋め込まれたマイクロ電極アレイのサイズと、優れたオンラインスパイクソートアルゴリズムである。
Ada-SpikeDeep Classifier (Adaptive SpikeDeep-Classifier) という,オンラインスパイクソートのための適応的で自己組織化されたアルゴリズムを提案する。
我々のアルゴリズムは、ノイズとSAの分布の急激な変化を自動的に学習する最初のスパイクソートアルゴリズムである。
論文 参考訳(メタデータ) (2023-03-30T15:30:37Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Mixed-Precision Neural Network Quantization via Learned Layer-wise
Importance [50.00102219630088]
混合精度量子化(MPQ)は各層に対して最適なビット幅を決定するのを難しくする。
本稿では,すべての指標を同時に取得できる共同学習手法を提案する。
例えば、ResNet18上のインデックスによるMPQ検索は、わずか0.06秒しかかからない。
論文 参考訳(メタデータ) (2022-03-16T03:23:50Z) - Distilled Neural Networks for Efficient Learning to Rank [0.0]
本稿では, 蒸留法, プルーニング法, 高速行列乗算法を組み合わせて, ニューラルスコアリング時間を高速化する手法を提案する。
2つの公開学習からランクへのデータセットに関する総合的な実験は、新しいアプローチで生成されたニューラルネットワークが、有効性と効率のトレードオフのあらゆる点で競合していることを示している。
論文 参考訳(メタデータ) (2022-02-22T08:40:18Z) - Neural Architecture Search for Energy Efficient Always-on Audio Models [1.3846912186423144]
我々は,ニューラルネットワーク検索(NAS)にいくつかの変更を加えて,現実的な状況における成功の可能性を改善する。
実際のハードウェアで検索のパフォーマンスをベンチマークするが、実際のハードウェアで何千ものテストを実行することは難しいため、ランダムなフォレストモデルを用いて、候補ネットワークのエネルギー使用量を概ね予測する。
その結果,AudioSetをベースとした音響イベント分類データセットを用いて,推定毎のエネルギーの桁違いが小さく,メモリフットプリントもはるかに小さくなった。
論文 参考訳(メタデータ) (2022-02-09T06:10:18Z) - Accelerating Training and Inference of Graph Neural Networks with Fast
Sampling and Pipelining [58.10436813430554]
グラフニューラルネットワーク(GNN)のミニバッチトレーニングには、多くの計算とデータ移動が必要である。
我々は,分散マルチGPU環境において,近傍サンプリングを用いたミニバッチトレーニングを行うことを支持する。
本稿では,これらのボトルネックを緩和する一連の改良点について述べる。
また,サンプリングによる推論を支援する実験分析を行い,試験精度が実質的に損なわれていないことを示す。
論文 参考訳(メタデータ) (2021-10-16T02:41:35Z) - Oscillatory Fourier Neural Network: A Compact and Efficient Architecture
for Sequential Processing [16.69710555668727]
本稿では,コサイン活性化と時系列処理のための時間変化成分を有する新しいニューロンモデルを提案する。
提案したニューロンは、スペクトル領域に逐次入力を投影するための効率的なビルディングブロックを提供する。
IMDBデータセットの感情分析に提案されたモデルを適用すると、5時間以内のテスト精度は89.4%に達する。
論文 参考訳(メタデータ) (2021-09-14T19:08:07Z) - ViPNAS: Efficient Video Pose Estimation via Neural Architecture Search [94.90294600817215]
高速なオンラインビデオポーズ推定のための空間的・時間的ネットワークに対する新しいニューラルネットワーク探索(NAS)手法(ViPNAS)を提案する。
空間レベルでは,ネットワーク深さ,幅,カーネルサイズ,グループ数,注目度などの5つの異なる次元の探索空間を慎重に設計する。
時間レベルでは、一連の時間的特徴融合から検索し、複数のビデオフレームの合計精度と速度を最適化する。
論文 参考訳(メタデータ) (2021-05-21T06:36:40Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - How much progress have we made in neural network training? A New
Evaluation Protocol for Benchmarking Optimizers [86.36020260204302]
本稿では、エンドツーエンドの効率とデータ付加訓練の効率を評価するための新しいベンチマークプロトコルを提案する。
評価プロトコルは, ランダム探索よりも, 人間のチューニング行動とよく一致していることを示すために, 人間の実験を行った。
次に,提案したベンチマークフレームワークをコンピュータビジョン,自然言語処理,強化学習,グラフマイニングなどのタスクに適用する。
論文 参考訳(メタデータ) (2020-10-19T21:46:39Z) - Gradient-only line searches to automatically determine learning rates
for a variety of stochastic training algorithms [0.0]
Inexact (GOLS-I) である Gradient-Only Line Search を用いて、ニューラルネットワークトレーニングアルゴリズムの選択のための学習率スケジュールを決定する。
GOLS-Iの学習率スケジュールは、手動で調整された学習率、最適化アルゴリズム7以上、ニューラルネットワークアーキテクチャ3タイプ、データセット23、損失関数2つと競合する。
論文 参考訳(メタデータ) (2020-06-29T08:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。