論文の概要: E2CAR: An Efficient 2D-CNN Framework for Real-Time EEG Artifact Removal on Edge Devices
- arxiv url: http://arxiv.org/abs/2602.09035v1
- Date: Fri, 30 Jan 2026 03:22:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.701763
- Title: E2CAR: An Efficient 2D-CNN Framework for Real-Time EEG Artifact Removal on Edge Devices
- Title(参考訳): E2CAR:エッジデバイス上でのリアルタイム脳波アーチファクト除去のための効率的な2D-CNNフレームワーク
- Authors: Haoliang Liu, Chengkun Cai, Xu Zhao, Lei Li,
- Abstract要約: 脳波(EEG)信号は、しばしば人工物によって汚染される。
伝統的なアーティファクト除去法は、しばしば計算コストが高く、エッジデバイスにおけるリアルタイムアプリケーションには非効率である。
本稿では,1次元(1-D)CNNを2次元(2-D)CNNに置き換えることで,既存の畳み込みニューラルネットワーク(CNN)の計算コストを削減する手法を提案する。
- 参考スコア(独自算出の注目度): 10.121981655106536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalography (EEG) signals are frequently contaminated by artifacts, affecting the accuracy of subsequent analysis. Traditional artifact removal methods are often computationally expensive and inefficient for real-time applications in edge devices. This paper presents a method to reduce the computational cost of most existing convolutional neural networks (CNN) by replacing one-dimensional (1-D) CNNs with two-dimensional (2-D) CNNs and deploys them on Edge Tensor Processing Unit (TPU), which is an open-resource hardware accelerator widely used in edge devices for low-latency, low-power operation. A new Efficient 2D-CNN Artifact Removal (E2CAR) framework is also represented using the method above, and it achieves a 90\% reduction in inference time on the TPU and decreases power consumption by 18.98\%, while maintaining comparable artifact removal performance to existing methods. This approach facilitates efficient EEG signal processing on edge devices.
- Abstract(参考訳): 脳波(EEG)信号は人工物によって頻繁に汚染され、その後の分析の精度に影響を与える。
伝統的なアーティファクト除去法は、しばしば計算コストが高く、エッジデバイスにおけるリアルタイムアプリケーションには非効率である。
本稿では,1次元(1-D)CNNを2次元(2-D)CNNに置き換え,エッジテンソル処理ユニット(TPU)に展開することにより,既存の畳み込みニューラルネットワーク(CNN)の計算コストを削減する手法を提案する。
2D-CNNアーティファクト除去(E2CAR)フレームワークも上記の手法を用いて表現され、既存の方法と同等のアーチファクト除去性能を維持しつつ、TPU上での推論時間を90%削減し、消費電力を18.98倍に削減する。
このアプローチはエッジデバイス上での効率的なEEG信号処理を容易にする。
関連論文リスト
- Plug-and-Play with 2.5D Artifact Reduction Prior for Fast and Accurate Industrial Computed Tomography Reconstruction [4.024850952459758]
コーンビームX線CT (XCT) は, 内部構造を3次元再構成する上で必要不可欠なイメージング技術である。
プラグイン・アンド・プレイトモグラフィー再構成フレームワークにアーティファクト・リダクションを組み込んだ最近の成果は有望である。
また, この2.5D前のモデルでは, 復元の質が向上するだけでなく, 一般的に発生するXCTアーティファクトを直接抑制できることを示す。
論文 参考訳(メタデータ) (2025-06-17T16:52:57Z) - Efficient ANN-SNN Conversion with Error Compensation Learning [20.155985131466174]
スパイクニューラルネットワーク(SNN)は離散スパイクイベントを通じて動作し、より優れたエネルギー効率を提供する。
現在のANN-to-SNN変換は、しばしば変換エラーによる精度の低下と推論時間の増加をもたらす。
本稿では,誤り補償学習に基づく新しいANN-to-SNN変換フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:31:34Z) - DnLUT: Ultra-Efficient Color Image Denoising via Channel-Aware Lookup Tables [60.95483707212802]
DnLUTは、リソース消費を最小限に抑えながら高品質なカラーイメージを実現する、超効率的なルックアップテーブルベースのフレームワークである。
Pairwise Channel Mixer(PCM)は、チャネル間の相関関係と空間的依存関係を並列に効果的にキャプチャし、L字型畳み込み設計により受容界のカバレッジを最大化する。
これらのコンポーネントをトレーニング後に最適化されたルックアップテーブルに変換することで、DnLUTは、CNNの競合であるDnCNNと比較して500KBのストレージと0.1%のエネルギー消費しか必要とせず、20倍高速な推論を実現している。
論文 参考訳(メタデータ) (2025-03-20T08:15:29Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Signed Binary Weight Networks [17.07866119979333]
2つの重要なアルゴリズム技術は、効率の良い推論を可能にすることを約束している。
本稿では,さらに効率を向上させるために,署名バイナリネットワークと呼ばれる新しい手法を提案する。
提案手法は,イメージネットとCIFAR10データセットの2進法で同等の精度を達成し,69%の空間性を実現する。
論文 参考訳(メタデータ) (2022-11-25T00:19:21Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Seizure Detection and Prediction by Parallel Memristive Convolutional
Neural Networks [2.0738462952016232]
本稿では,低レイテンシ並列畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
本ネットワークは,てんかん発作検出では99.84%,てんかん発作予測では97.54%のクロスバリデーション精度を達成している。
CNNは22nm FDSOI CMOSプロセスで31.255mm$2$の面積を占有しながら約2.791Wの電力を消費すると推定されている。
論文 参考訳(メタデータ) (2022-06-20T18:16:35Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。