論文の概要: Time-space-frequency feature Fusion for 3-channel motor imagery
classification
- arxiv url: http://arxiv.org/abs/2304.01461v1
- Date: Tue, 4 Apr 2023 02:01:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 15:41:45.307315
- Title: Time-space-frequency feature Fusion for 3-channel motor imagery
classification
- Title(参考訳): 3チャンネルモータ画像分類のための時空間特徴フュージョン
- Authors: Zhengqing Miao and Meirong Zhao
- Abstract要約: 本研究では,時間空間の周波数を考慮した新しいネットワークアーキテクチャであるTSFF-Netを紹介する。
TSFF-Netは、時間周波数表現、時間周波数特徴抽出、時間空間特徴抽出、特徴融合と分類の4つの主要コンポーネントから構成される。
実験により、TSFF-Netは、脳波復号法における単一モード特徴抽出ネットワークの欠点を補うだけでなく、他の最先端手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-channel EEG devices are crucial for portable and entertainment
applications. However, the low spatial resolution of EEG presents challenges in
decoding low-channel motor imagery. This study introduces TSFF-Net, a novel
network architecture that integrates time-space-frequency features, effectively
compensating for the limitations of single-mode feature extraction networks
based on time-series or time-frequency modalities. TSFF-Net comprises four main
components: time-frequency representation, time-frequency feature extraction,
time-space feature extraction, and feature fusion and classification.
Time-frequency representation and feature extraction transform raw EEG signals
into time-frequency spectrograms and extract relevant features. The time-space
network processes time-series EEG trials as input and extracts temporal-spatial
features. Feature fusion employs MMD loss to constrain the distribution of
time-frequency and time-space features in the Reproducing Kernel Hilbert Space,
subsequently combining these features using a weighted fusion approach to
obtain effective time-space-frequency features. Moreover, few studies have
explored the decoding of three-channel motor imagery based on time-frequency
spectrograms. This study proposes a shallow, lightweight decoding architecture
(TSFF-img) based on time-frequency spectrograms and compares its classification
performance in low-channel motor imagery with other methods using two publicly
available datasets. Experimental results demonstrate that TSFF-Net not only
compensates for the shortcomings of single-mode feature extraction networks in
EEG decoding, but also outperforms other state-of-the-art methods. Overall,
TSFF-Net offers considerable advantages in decoding low-channel motor imagery
and provides valuable insights for algorithmically enhancing low-channel EEG
decoding.
- Abstract(参考訳): 低チャネルのEEGデバイスは、ポータブルおよびエンターテイメントアプリケーションに不可欠である。
しかし,脳波の低空間分解能は低チャネル運動画像の復号に困難をもたらす。
本研究では,時系列や時間周波数変調に基づく単一モード特徴抽出ネットワークの限界を効果的に補償する新しいネットワークアーキテクチャTSFF-Netを提案する。
tsff-netは、時間周波数表現、時間周波数特徴抽出、時間空間特徴抽出、特徴融合と分類の4つの主成分からなる。
時間周波数表現と特徴抽出は生の脳波信号を時間周波数スペクトログラムに変換し、関連する特徴を抽出する。
時間空間ネットワークは時系列EEG試験を入力として処理し、時間空間の特徴を抽出する。
特徴融合は、再生ケルネルヒルベルト空間における時間周波数と時間空間の特徴の分布を制限するためにMDD損失を使用し、その後、重み付け融合法を用いて効率的な時間空間周波数特徴を得る。
さらに、時間周波数スペクトログラムに基づく3チャンネルモータ画像の復号化についての研究は少ない。
本研究では、時間周波数スペクトログラムに基づく浅層軽量デコードアーキテクチャ(TSFF-img)を提案し、低チャネルモータ画像の分類性能と2つの公開データセットを用いた他の手法との比較を行った。
実験の結果,TSFF-Netは脳波デコーディングにおける単一モード特徴抽出ネットワークの欠点を補うだけでなく,他の最先端手法よりも優れていた。
全体として、TSFF-Netは低チャネルの運動画像の復号化に大きな利点をもたらし、低チャネルのEEG復号化をアルゴリズム的に強化するための貴重な洞察を提供する。
関連論文リスト
- Efficient Spatio-Temporal Signal Recognition on Edge Devices Using PointLCA-Net [0.45609532372046985]
本稿では、ポイントネットの特徴抽出とインメモリコンピューティング能力と時間信号認識のためのニューロモルフィックシステムのエネルギー効率を組み合わせたアプローチを提案する。
PointNetは、推定とトレーニングの両方において、同等のアプローチよりも高い精度とエネルギー負担を著しく低減します。
論文 参考訳(メタデータ) (2024-11-21T20:48:40Z) - Investigation of Time-Frequency Feature Combinations with Histogram Layer Time Delay Neural Networks [37.95478822883338]
音声信号を時間周波数表現に変換する手法は、性能に大きな影響を及ぼす。
この研究は、ヒストグラム層時間遅延ニューラルネットワークにおいて、異なる時間周波数特徴の組み合わせを使用することによる性能への影響を示す。
論文 参考訳(メタデータ) (2024-09-20T20:22:24Z) - Frequency-Aware Deepfake Detection: Improving Generalizability through
Frequency Space Learning [81.98675881423131]
この研究は、目に見えないディープフェイク画像を効果的に識別できるユニバーサルディープフェイク検出器を開発するという課題に対処する。
既存の周波数ベースのパラダイムは、偽造検出のためにGANパイプラインのアップサンプリング中に導入された周波数レベルのアーティファクトに依存している。
本稿では、周波数領域学習を中心にしたFreqNetと呼ばれる新しい周波数認識手法を導入し、ディープフェイク検出器の一般化性を高めることを目的とする。
論文 参考訳(メタデータ) (2024-03-12T01:28:00Z) - RTFS-Net: Recurrent Time-Frequency Modelling for Efficient Audio-Visual Speech Separation [18.93255531121519]
本稿では,時間周波数領域の音声-視覚音声分離手法を提案する。
RTFS-Netはそのアルゴリズムをショートタイムフーリエ変換によって得られる複雑な時間周波数ビンに適用する。
これは、時間周波数領域の音声・視覚的音声分離法として初めて、現代の時間領域の全てを上回ります。
論文 参考訳(メタデータ) (2023-09-29T12:38:00Z) - Complementary Frequency-Varying Awareness Network for Open-Set
Fine-Grained Image Recognition [14.450381668547259]
オープンセット画像認識はコンピュータビジョンにおける課題である。
本稿では,高周波情報と低周波情報の両方をよりよく把握できる補完周波数変化認識ネットワークを提案する。
CFANに基づいて,CFAN-OSFGRと呼ばれるオープンセットのきめ細かい画像認識手法を提案する。
論文 参考訳(メタデータ) (2023-07-14T08:15:36Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Fourier Disentangled Space-Time Attention for Aerial Video Recognition [54.80846279175762]
本稿では,UAVビデオ行動認識のためのFAR(Fourier Activity Recognition)アルゴリズムを提案する。
我々の定式化は、人間のエージェントを背景から自然に分離するために、新しいフーリエオブジェクト・ディコンタングルメント法を用いています。
我々はUAV Human RGB、UAV Human Night、Drone Action、NEC Droneを含む複数のUAVデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-03-21T01:24:53Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Time and Frequency Network for Human Action Detection in Videos [6.78349879472022]
TFNetという,時刻と周波数を同時に考慮したエンドツーエンドネットワークを提案する。
動作パターンを得るには、これら2つの特徴を注目機構の下で深く融合させる。
論文 参考訳(メタデータ) (2021-03-08T11:42:05Z) - Multi-Temporal Convolutions for Human Action Recognition in Videos [83.43682368129072]
複数の解像度で抽出できる新しい時間・時間的畳み込みブロックを提案する。
提案するブロックは軽量で,任意の3D-CNNアーキテクチャに統合可能である。
論文 参考訳(メタデータ) (2020-11-08T10:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。