論文の概要: Few-Shot Transfer Learning for Individualized Braking Intent Detection on Neuromorphic Hardware
- arxiv url: http://arxiv.org/abs/2408.03336v2
- Date: Sun, 27 Oct 2024 22:52:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 12:44:50.312824
- Title: Few-Shot Transfer Learning for Individualized Braking Intent Detection on Neuromorphic Hardware
- Title(参考訳): ニューロモルフィックハードウェアにおける個別ブレーキインテント検出のためのFew-Shot Transfer Learning
- Authors: Nathan Lutes, Venkata Sriram Siddhardh Nadendla, K. Krishnamurthy,
- Abstract要約: 本研究では、BrainChip上の畳み込みスパイクニューラルネットワーク(CSNN)をトレーニングし、実装するために、数発の転送学習手法の使用について検討する。
その結果、ニューロモルフィックハードウェアのエネルギー効率は97%以上低下し、レイテンシは1.3*しか増加しなかった。
- 参考スコア(独自算出の注目度): 0.21847754147782888
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: This work explores use of a few-shot transfer learning method to train and implement a convolutional spiking neural network (CSNN) on a BrainChip Akida AKD1000 neuromorphic system-on-chip for developing individual-level, instead of traditionally used group-level, models using electroencephalographic data. Main Results: Efficacy of the above methodology to develop individual-specific braking intention predictive models by rapidly adapting the group-level model in as few as three training epochs while achieving at least 90% accuracy, true positive rate and true negative rate is presented. Further, results show the energy-efficiency of the neuromorphic hardware through a power reduction of over 97% with only a $1.3* increase in latency when using the Akida AKD1000 processor for network inference compared to an Intel Xeon central processing unit. Similar results were obtained in a subsequent ablation study using a subset of five out of 19 channels.
- Abstract(参考訳): 目的:本研究は、脳チップのAkida AKD1000ニューロモルフィックシステム上で、従来の脳波データを用いたグループレベルのモデルではなく、個々のレベルを開発するための、畳み込みスパイクニューラルネットワーク(CSNN)のトレーニングと実装に、数発のトランスファー学習手法を使用することを検討する。
主な結果:少なくとも90%の精度,真の正の速度,真の負の速度を達成しつつ,グループレベルのモデルを3つの訓練エポックに迅速に適応させることにより,個人固有の制動意図予測モデルを開発するための方法論の有効性を示す。
さらに、Akida AKD1000プロセッサをIntel Xeonの中央処理ユニットと比較すると、97%以上の電力削減とレイテンシのたった1.3*増加によるニューロモルフィックハードウェアのエネルギー効率が示されている。
同様の結果は、19チャンネル中5チャンネルのサブセットを用いて、その後のアブレーション研究で得られた。
関連論文リスト
- CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [53.539020807256904]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - Transfer Learning with Active Sampling for Rapid Training and Calibration in BCI-P300 Across Health States and Multi-centre Data [0.13124513975412253]
機械学習とディープラーニングの進歩により、Brain-Computer Interface(BCI)のパフォーマンスが向上した。
個々の健康、ハードウェアのバリエーション、そしてニューラルデータに影響を与える文化的差異などの要因により、適用範囲は限られている。
適応的な伝達学習を備えた畳み込みニューラルネットワークを用いたBCIにおけるP300波の検出を提案する。
論文 参考訳(メタデータ) (2024-12-14T14:20:21Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Growing Deep Neural Network Considering with Similarity between Neurons [4.32776344138537]
我々は、訓練段階におけるコンパクトモデルにおいて、ニューロン数を漸進的に増加させる新しいアプローチを探求する。
本稿では,ニューロン類似性分布に基づく制約を導入することにより,特徴抽出バイアスと神経冗長性を低減する手法を提案する。
CIFAR-10とCIFAR-100データセットの結果、精度が向上した。
論文 参考訳(メタデータ) (2024-08-23T11:16:37Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Efficiently Training Vision Transformers on Structural MRI Scans for
Alzheimer's Disease Detection [2.359557447960552]
ビジョントランスフォーマー(ViT)は近年、コンピュータビジョンアプリケーションのためのCNNの代替として登場した。
難易度に基づいて,脳神経画像の下流タスクに対するViTアーキテクチャの変種を検証した。
合成および実MRIスキャンで事前訓練した微調整型視覚変換器モデルを用いて、5%と9-10%の性能向上を実現した。
論文 参考訳(メタデータ) (2023-03-14T20:18:12Z) - Atrial Fibrillation Detection Using Weight-Pruned, Log-Quantised
Convolutional Neural Networks [25.160063477248904]
心電図信号から心房細動を検出する畳み込みニューラルネットワークモデルを開発した。
このモデルは、限られた可変長の入力データで訓練されているにもかかわらず、高い性能を示す。
最終モデルは91.1%のモデル圧縮比を達成し、高いモデル精度は91.7%、損失は1%未満であった。
論文 参考訳(メタデータ) (2022-06-14T11:47:04Z) - Towards physiology-informed data augmentation for EEG-based BCIs [24.15108821320151]
本稿では,手元に設定したデータから新たなデータを生成することにより,トレーニングデータを増強する新しい手法を提案する。
本書では,本手法を解説し,参加者非依存型運動画像分類のための第1次予備結果を示す。
論文 参考訳(メタデータ) (2022-03-27T20:59:40Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。