論文の概要: BrainDistill: Implantable Motor Decoding with Task-Specific Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2601.17625v1
- Date: Sat, 24 Jan 2026 23:01:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.100559
- Title: BrainDistill: Implantable Motor Decoding with Task-Specific Knowledge Distillation
- Title(参考訳): BrainDistill: タスク特化知識蒸留による組込み型モータデコード
- Authors: Yuhan Xie, Jinhan Liu, Xiaoyong Ni, Fei Tan, Icare Sakr, Thibault Collin, Shiqi Sun, Alejandro Rodriguez Guajardo, Demon Fanny, Charles-francois Vincent Latchoumane, Henri Lorach, Jocelyne Bloch, Gregoire Courtine, Mahsa Shoaran,
- Abstract要約: 大規模なデータセットで事前トレーニングされた大きなパラメータ数を持つトランスフォーマーベースのニューラルデコーダは、最近、脳-コンピュータインターフェース(BCI)タスクにおける古典的な機械学習モデルと小さなニューラルネットワークを上回っている。
本稿では, 組み込み型ニューラルデコーダ(IND)とタスク固有の知識蒸留フレームワークを統合した, 新たな組込み型モータデコードパイプラインであるBrainDistillを紹介する。
- 参考スコア(独自算出の注目度): 37.98715351801447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer-based neural decoders with large parameter counts, pre-trained on large-scale datasets, have recently outperformed classical machine learning models and small neural networks on brain-computer interface (BCI) tasks. However, their large parameter counts and high computational demands hinder deployment in power-constrained implantable systems. To address this challenge, we introduce BrainDistill, a novel implantable motor decoding pipeline that integrates an implantable neural decoder (IND) with a task-specific knowledge distillation (TSKD) framework. Unlike standard feature distillation methods that attempt to preserve teacher representations in full, TSKD explicitly prioritizes features critical for decoding through supervised projection. Across multiple neural datasets, IND consistently outperforms prior neural decoders on motor decoding tasks, while its TSKD-distilled variant further surpasses alternative distillation methods in few-shot calibration settings. Finally, we present a quantization-aware training scheme that enables integer-only inference with activation clipping ranges learned during training. The quantized IND enables deployment under the strict power constraints of implantable BCIs with minimal performance loss.
- Abstract(参考訳): 大規模なデータセットで事前トレーニングされた大きなパラメータ数を持つトランスフォーマーベースのニューラルデコーダは、最近、脳-コンピュータインターフェース(BCI)タスクにおける古典的な機械学習モデルと小さなニューラルネットワークを上回っている。
しかし、その大きなパラメータ数と高い計算要求は、電力制約のある組込みシステムへの展開を妨げる。
この課題に対処するため、我々は、組み込み可能なニューラルデコーダ(IND)とタスク固有知識蒸留(TSKD)フレームワークを統合した、新しい埋め込み可能なモータデコードパイプラインであるBrainDistillを紹介した。
教師表現を完全に保存しようとする標準的な特徴蒸留法とは異なり、TSKDは教師付きプロジェクションを通じてデコードに不可欠な特徴を明示的に優先する。
複数のニューラルデータセット全体にわたって、INDは運動復号処理において、前回のニューラルデコーダよりも一貫して優れており、TSKDで蒸留された変種は、数ショットのキャリブレーション設定で代替蒸留方法を上回る。
最後に、学習中に学習したアクティベーションクリッピング範囲で整数のみの推論を可能にする量子化対応トレーニング手法を提案する。
量子化INDは、最小性能の損失で埋め込み可能なBCIの厳格な電力制約下での展開を可能にする。
関連論文リスト
- NeuroRVQ: Multi-Scale EEG Tokenization for Generative Large Brainwave Models [66.91449452840318]
我々は、コードブックベースのトークン化装置を中心としたスケーラブルな大脳波モデル(LBM)であるNeuroRVQを紹介する。
我々のトークンライザは, (i) フル周波数のニューラルスペクトルを捕捉するマルチスケール特徴抽出モジュール, (ii) 高精細符号化のための階層的残留ベクトル量子化(RVQ)コードブック, (iii) 効率的なトレーニングのためのEEG信号位相および振幅認識損失関数を統合する。
実験の結果,NeuroRVQは再建誤差を低くし,様々な下流タスクにおいて既存のLBMよりも優れることがわかった。
論文 参考訳(メタデータ) (2025-10-15T01:26:52Z) - Adaptively Pruned Spiking Neural Networks for Energy-Efficient Intracortical Neural Decoding [0.06181089784338582]
ニューロモルフィックハードウェア上でのニューラルネットワーク(SNN)のスパイキングは、ニューラルデコーディングにおいて顕著な効率性を示している。
本稿では,脳皮質内神経復号をターゲットとした,高アクティベーション領域を有するSNNを対象とした適応型プルーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-15T19:16:34Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Constraint Guided Model Quantization of Neural Networks [0.0]
Constraint Guided Model Quantization (CGMQ) は、計算資源の上限を使い、ニューラルネットワークのパラメータのビット幅を削減する量子化対応トレーニングアルゴリズムである。
MNISTとCIFAR10では、CGMQの性能は最先端の量子化対応トレーニングアルゴリズムと競合している。
論文 参考訳(メタデータ) (2024-09-30T09:41:16Z) - EvSegSNN: Neuromorphic Semantic Segmentation for Event Data [0.6138671548064356]
EvSegSNN は、Parametric Leaky Integrate と Fire のニューロンに依存した、生物学的に検証可能なエンコーダ-デコーダU字型アーキテクチャである。
本稿では,スパイキングニューラルネットワークとイベントカメラを組み合わせることによって,エンド・ツー・エンドのバイオインスパイアされたセマンティックセマンティックセマンティクス手法を提案する。
DDD17で実施された実験は、EvSegSNNがMIoUの観点から最も近い最先端モデルを上回っていることを示している。
論文 参考訳(メタデータ) (2024-06-20T10:36:24Z) - Fast-NTK: Parameter-Efficient Unlearning for Large-Scale Models [17.34908967455907]
マシン・アンラーニング'は、スクラッチから再トレーニングすることなく、不要なデータの選択的削除を提案する。
Fast-NTKはNTKベースの新しいアンラーニングアルゴリズムであり、計算複雑性を大幅に削減する。
論文 参考訳(メタデータ) (2023-12-22T18:55:45Z) - Deep Quantum Error Correction [73.54643419792453]
量子誤り訂正符号(QECC)は、量子コンピューティングのポテンシャルを実現するための鍵となる要素である。
本研究では,新しいエンペンド・ツー・エンドの量子誤りデコーダを効率的に訓練する。
提案手法は,最先端の精度を実現することにより,QECCのニューラルデコーダのパワーを実証する。
論文 参考訳(メタデータ) (2023-01-27T08:16:26Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。