論文の概要: FaFeSort: A Fast and Few-shot End-to-end Neural Network for Multi-channel Spike Sorting
- arxiv url: http://arxiv.org/abs/2409.13067v1
- Date: Thu, 19 Sep 2024 20:01:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 12:03:17.531144
- Title: FaFeSort: A Fast and Few-shot End-to-end Neural Network for Multi-channel Spike Sorting
- Title(参考訳): FaFeSort: マルチチャネルスパイクソーティングのための高速かつ少ないエンドツーエンドニューラルネットワーク
- Authors: Yuntao Han, Shiwei Wang,
- Abstract要約: FaFeSortは、数ショットの学習と並列化可能な後処理を備えた、エンドツーエンドのニューラルネットワークベースのスパイクソータである。
我々のフレームワークは、スクラッチからのトレーニングに比べて、トレーニングに必要な注釈付きスパイクの数を44%削減し、最大25.68%の精度を達成する。
- 参考スコア(独自算出の注目度): 3.094548175033156
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Decoding extracellular recordings is a crucial task in electrophysiology and brain-computer interfaces. Spike sorting, which distinguishes spikes and their putative neurons from extracellular recordings, becomes computationally demanding with the increasing number of channels in modern neural probes. To address the intensive workload and complex neuron interactions, we propose FaFeSort, an end-to-end neural network-based spike sorter with few-shot learning and parallelizable post-processing. Our framework reduces the required number of annotated spikes for training by 44% compared to training from scratch, achieving up to 25.68% higher accuracy. Additionally, our novel post-processing algorithm is compatible to the deep learning frameworks, making FaFeSort significantly faster than state-of-the-art spike sorters. On synthesized Neuropixels recordings, FaFeSort achieves comparable accuracy with Kilosort4 sorting 50 seconds of data in only 1.32 seconds. Our method demonstrates robustness across various probe geometries, noise levels, and drift conditions, offering a substantial improvement in both accuracy and runtime efficiency comparing to existing spike sorters.
- Abstract(参考訳): 細胞外記録の復号化は電気生理学的および脳-コンピュータインターフェースにおいて重要な課題である。
スパイクソート(スパイクソート)はスパイクとそのニューロンを細胞外記録と区別し、現代のニューラルプローブのチャネル数の増加とともに計算的に要求される。
集約的なワークロードと複雑なニューロンの相互作用に対処するために,数ショットの学習と並列化が可能な後処理を備えた,エンドツーエンドのニューラルネットワークベースのスパイクソータであるFaFeSortを提案する。
我々のフレームワークは、スクラッチからのトレーニングに比べて、トレーニングに必要な注釈付きスパイクの数を44%削減し、最大25.68%の精度を達成する。
さらに、新しい後処理アルゴリズムはディープラーニングフレームワークと互換性があり、FaFeSortは最先端のスパイクソータよりも大幅に高速である。
合成されたニューロピクセル記録において、FaFeSortはKilosort4で50秒のデータをわずか1.32秒でソートすることで、同等の精度を達成する。
提案手法は, 種々のプローブ測地, 騒音レベル, ドリフト条件にまたがるロバスト性を実証し, 既存のスパイクソーダと比較して精度と実行効率を著しく向上する。
関連論文リスト
- Newton Losses: Using Curvature Information for Learning with Differentiable Algorithms [80.37846867546517]
カスタム目的の8つの異なるニューラルネットワークのトレーニング方法を示す。
我々はその2次情報を経験的フィッシャー行列を通して活用する。
ロスロスロスシブルアルゴリズムを用いて、少ない微分可能アルゴリズムに対する大幅な改善を実現する。
論文 参考訳(メタデータ) (2024-10-24T18:02:11Z) - NeuSort: An Automatic Adaptive Spike Sorting Approach with Neuromorphic
Models [24.02427573873539]
スパイクソートは、ニューラルデータ処理における重要なステップである。
本研究ではニューロモルフィックモデルを用いた新しいオンラインスパイクソーターであるNeuSortを開発することを目的とする。
論文 参考訳(メタデータ) (2023-04-20T12:55:49Z) - Mixed-Precision Neural Network Quantization via Learned Layer-wise
Importance [50.00102219630088]
混合精度量子化(MPQ)は各層に対して最適なビット幅を決定するのを難しくする。
本稿では,すべての指標を同時に取得できる共同学習手法を提案する。
例えば、ResNet18上のインデックスによるMPQ検索は、わずか0.06秒しかかからない。
論文 参考訳(メタデータ) (2022-03-16T03:23:50Z) - Distilled Neural Networks for Efficient Learning to Rank [0.0]
本稿では, 蒸留法, プルーニング法, 高速行列乗算法を組み合わせて, ニューラルスコアリング時間を高速化する手法を提案する。
2つの公開学習からランクへのデータセットに関する総合的な実験は、新しいアプローチで生成されたニューラルネットワークが、有効性と効率のトレードオフのあらゆる点で競合していることを示している。
論文 参考訳(メタデータ) (2022-02-22T08:40:18Z) - Neural Architecture Search for Energy Efficient Always-on Audio Models [1.3846912186423144]
我々は,ニューラルネットワーク検索(NAS)にいくつかの変更を加えて,現実的な状況における成功の可能性を改善する。
実際のハードウェアで検索のパフォーマンスをベンチマークするが、実際のハードウェアで何千ものテストを実行することは難しいため、ランダムなフォレストモデルを用いて、候補ネットワークのエネルギー使用量を概ね予測する。
その結果,AudioSetをベースとした音響イベント分類データセットを用いて,推定毎のエネルギーの桁違いが小さく,メモリフットプリントもはるかに小さくなった。
論文 参考訳(メタデータ) (2022-02-09T06:10:18Z) - Oscillatory Fourier Neural Network: A Compact and Efficient Architecture
for Sequential Processing [16.69710555668727]
本稿では,コサイン活性化と時系列処理のための時間変化成分を有する新しいニューロンモデルを提案する。
提案したニューロンは、スペクトル領域に逐次入力を投影するための効率的なビルディングブロックを提供する。
IMDBデータセットの感情分析に提案されたモデルを適用すると、5時間以内のテスト精度は89.4%に達する。
論文 参考訳(メタデータ) (2021-09-14T19:08:07Z) - ViPNAS: Efficient Video Pose Estimation via Neural Architecture Search [94.90294600817215]
高速なオンラインビデオポーズ推定のための空間的・時間的ネットワークに対する新しいニューラルネットワーク探索(NAS)手法(ViPNAS)を提案する。
空間レベルでは,ネットワーク深さ,幅,カーネルサイズ,グループ数,注目度などの5つの異なる次元の探索空間を慎重に設計する。
時間レベルでは、一連の時間的特徴融合から検索し、複数のビデオフレームの合計精度と速度を最適化する。
論文 参考訳(メタデータ) (2021-05-21T06:36:40Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - How much progress have we made in neural network training? A New
Evaluation Protocol for Benchmarking Optimizers [86.36020260204302]
本稿では、エンドツーエンドの効率とデータ付加訓練の効率を評価するための新しいベンチマークプロトコルを提案する。
評価プロトコルは, ランダム探索よりも, 人間のチューニング行動とよく一致していることを示すために, 人間の実験を行った。
次に,提案したベンチマークフレームワークをコンピュータビジョン,自然言語処理,強化学習,グラフマイニングなどのタスクに適用する。
論文 参考訳(メタデータ) (2020-10-19T21:46:39Z) - Gradient-only line searches to automatically determine learning rates
for a variety of stochastic training algorithms [0.0]
Inexact (GOLS-I) である Gradient-Only Line Search を用いて、ニューラルネットワークトレーニングアルゴリズムの選択のための学習率スケジュールを決定する。
GOLS-Iの学習率スケジュールは、手動で調整された学習率、最適化アルゴリズム7以上、ニューラルネットワークアーキテクチャ3タイプ、データセット23、損失関数2つと競合する。
論文 参考訳(メタデータ) (2020-06-29T08:59:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。