論文の概要: SaleNet: A low-power end-to-end CNN accelerator for sustained attention
level evaluation using EEG
- arxiv url: http://arxiv.org/abs/2209.01386v1
- Date: Sat, 3 Sep 2022 09:49:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:38:22.970328
- Title: SaleNet: A low-power end-to-end CNN accelerator for sustained attention
level evaluation using EEG
- Title(参考訳): SaleNet:EEGを用いた注意レベル評価のための低消費電力エンドツーエンドCNNアクセラレータ
- Authors: Chao Zhang, Zijian Tang, Taoming Guo, Jiaxin Lei, Jiaxin Xiao, Anhe
Wang, Shuo Bai, Milin Zhang
- Abstract要約: SaleNetは、継続的な注意レベル評価のためのエンドツーエンドの畳み込みニューラルネットワーク(CNN)である。
Artix-7 FPGAに実装されており、消費電力は0.11W、エネルギー効率は8.19GOps/Wである。
- 参考スコア(独自算出の注目度): 4.010489525385616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes SaleNet - an end-to-end convolutional neural network
(CNN) for sustained attention level evaluation using prefrontal
electroencephalogram (EEG). A bias-driven pruning method is proposed together
with group convolution, global average pooling (GAP), near-zero pruning, weight
clustering and quantization for the model compression, achieving a total
compression ratio of 183.11x. The compressed SaleNet obtains a state-of-the-art
subject-independent sustained attention level classification accuracy of 84.2%
on the recorded 6-subject EEG database in this work. The SaleNet is implemented
on a Artix-7 FPGA with a competitive power consumption of 0.11 W and an
energy-efficiency of 8.19 GOps/W.
- Abstract(参考訳): 本稿では,前頭前頭脳波(EEG)を用いた注意レベル評価のための終端畳み込みニューラルネットワーク(CNN)であるSaleNetを提案する。
集団畳み込み,大域平均プーリング (GAP) , 近ゼロプルーニング, 重みクラスタリング, およびモデル圧縮の量子化を併用して, 総圧縮比183.11xとなるバイアス駆動プルーニング法を提案する。
本研究において、圧縮販売網は、記録された6-subject eegデータベース上で84.2%の最先端の被写体非依存的注意レベル分類精度を得る。
SaleNetは、競争力0.11W、エネルギー効率8.19GOps/WのArtix-7 FPGA上で実装されている。
関連論文リスト
- Optimization and Deployment of Deep Neural Networks for PPG-based Blood Pressure Estimation Targeting Low-power Wearables [18.038842995948034]
PPG-to-BP信号と信号の再構成やスカラーBP値の回帰のために訓練された最先端のDeep Neural Networks(DNN)は、公開データセット上での古典的手法よりも優れていることが示されている。
我々は,超低消費電力のSystem-on-Chip (SoC) GAP8上に展開可能な,HW対応ニューラルアーキテクチャサーチ(NAS)と量子化を含む完全自動DNN設計パイプラインについて述べる。
論文 参考訳(メタデータ) (2024-09-03T15:48:43Z) - Systematic Architectural Design of Scale Transformed Attention Condenser
DNNs via Multi-Scale Class Representational Response Similarity Analysis [93.0013343535411]
マルチスケールクラス表現応答類似性分析(ClassRepSim)と呼ばれる新しいタイプの分析法を提案する。
ResNetスタイルのアーキテクチャにSTACモジュールを追加すると、最大1.6%の精度が向上することを示す。
ClassRepSim分析の結果は、STACモジュールの効果的なパラメータ化を選択するために利用することができ、競争性能が向上する。
論文 参考訳(メタデータ) (2023-06-16T18:29:26Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - VOLO: Vision Outlooker for Visual Recognition [148.12522298731807]
視覚変換器 (ViT) はイメージネット分類において自己注意に基づくモデルの可能性を示している。
我々は、新しい展望の展望を導入し、VoLO(Vision Outlooker)と呼ばれる、シンプルで一般的なアーキテクチャを提示する。
グローバルな依存性モデリングを粗いレベルで重視する自己注意とは異なり、展望はより詳細な機能やコンテキストをトークンに効率的にエンコードする。
実験の結果、私たちのVOLOはImageNet-1K分類で87.1%のトップ1の精度を達成しており、これはこの競合ベンチマークで87%以上の精度で最初のモデルである。
論文 参考訳(メタデータ) (2021-06-24T15:46:54Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Toward Compact Deep Neural Networks via Energy-Aware Pruning [2.578242050187029]
ネットワークにおける各フィルタの重要性を核ノルム(NN)を用いて定量化する新しいエネルギー対応プルーニング手法を提案する。
FLOPの40.4/49.8%、パラメータ還元の45.9/52.9%、トップ1の精度の94.13/94.61%、CIFAR-10のResNet-56/110で競合する結果を得た。
論文 参考訳(メタデータ) (2021-03-19T15:33:16Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - Temporal Attention-Augmented Graph Convolutional Network for Efficient
Skeleton-Based Human Action Recognition [97.14064057840089]
グラフネットワーク(GCN)はユークリッド以外のデータ構造をモデル化するのに非常に成功した。
ほとんどのGCNベースのアクション認識手法は、計算量の多いディープフィードフォワードネットワークを使用して、全てのスケルトンをアクションで処理する。
本稿では,骨格に基づく行動認識の効率を高めるための時間的アテンションモジュール(TAM)を提案する。
論文 参考訳(メタデータ) (2020-10-23T08:01:55Z) - ZynqNet: An FPGA-Accelerated Embedded Convolutional Neural Network [0.0]
この論文はFPGAベースのCNNアクセラレーションの可能性を探るものである。
Zynq System-on-Chip上でのCNN実装の完全機能を示す。
論文 参考訳(メタデータ) (2020-05-14T11:54:04Z) - An Accurate EEGNet-based Motor-Imagery Brain-Computer Interface for
Low-Power Edge Computing [13.266626571886354]
本稿では,MI-BCI(MI-BCI)の精度と堅牢性を示す。
EEGNetに基づく新しいモデルでは、低消費電力マイクロコントローラユニット(MCU)のメモリフットプリントと計算資源の要件が一致している。
スケールされたモデルは、最小モデルを操作するために101msと4.28mJを消費する商用のCortex-M4F MCUにデプロイされ、中型モデルでは44msと18.1mJのCortex-M7にデプロイされる。
論文 参考訳(メタデータ) (2020-03-31T19:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。