論文の概要: RatioWaveNet: A Learnable RDWT Front-End for Robust and Interpretable EEG Motor-Imagery Classification
- arxiv url: http://arxiv.org/abs/2510.21841v1
- Date: Wed, 22 Oct 2025 14:04:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.606655
- Title: RatioWaveNet: A Learnable RDWT Front-End for Robust and Interpretable EEG Motor-Imagery Classification
- Title(参考訳): RatioWaveNet:ロバストで解釈可能なEEGモータ画像分類のための学習可能なRDWTフロントエンド
- Authors: Marco Siino, Giuseppe Bonomo, Rosario Sorbello, Ilenia Tinnirello,
- Abstract要約: 本稿では、トレーニング可能なRationally-Dilated Wavelet Transformフロントエンドで、強力な時間的CNN-Transformerバックボーンを増強するRatioWaveNetを提案する。
我々のゴールは、この原理化されたウェーブレットフロントエンドが、BCIが通常失敗するところのロバスト性を改善するかどうかをテストすることである。
- 参考スコア(独自算出の注目度): 1.4069478981641936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Brain-computer interfaces (BCIs) based on motor imagery (MI) translate covert movement intentions into actionable commands, yet reliable decoding from non-invasive EEG remains challenging due to nonstationarity, low SNR, and subject variability. We present RatioWaveNet, which augments a strong temporal CNN-Transformer backbone (TCFormer) with a trainable, Rationally-Dilated Wavelet Transform (RDWT) front end. The RDWT performs an undecimated, multi-resolution subband decomposition that preserves temporal length and shift-invariance, enhancing sensorimotor rhythms while mitigating jitter and mild artifacts; subbands are fused via lightweight grouped 1-D convolutions and passed to a multi-kernel CNN for local temporal-spatial feature extraction, a grouped-query attention encoder for long-range context, and a compact TCN head for causal temporal integration. Our goal is to test whether this principled wavelet front end improves robustness precisely where BCIs typically fail - on the hardest subjects - and whether such gains persist on average across seeds under both intra- and inter-subject protocols. On BCI-IV-2a and BCI-IV-2b, across five seeds, RatioWaveNet improves worst-subject accuracy over the Transformer backbone by +0.17 / +0.42 percentage points (Sub-Dependent / LOSO) on 2a and by +1.07 / +2.54 percentage points on 2b, with consistent average-case gains and modest computational overhead. These results indicate that a simple, trainable wavelet front end is an effective plug-in to strengthen Transformer-based BCIs, improving worst-case reliability without sacrificing efficiency.
- Abstract(参考訳): 運動画像(MI)に基づく脳-コンピュータインタフェース(BCI)は、隠蔽運動意図を動作可能なコマンドに変換するが、非侵襲的脳波からの信頼性の高い復号は、非定常性、低SNR、および被写体可変性のために難しいままである。
本稿では、トレーニング可能なRationally-Dilated Wavelet Transform (RDWT)フロントエンドで、CNN-Transformerバックボーン(TCFormer)を強化したRatioWaveNetを提案する。
RDWTは、時間長とシフト不変性を保存し、ジッタと軽微なアーティファクトを緩和しながら感覚運動リズムを増強し、サブバンドを軽量なグループ化1次元畳み込みにより融合させ、局所時間空間特徴抽出のためのマルチカーネルCNN、長距離コンテキストのためのグループ化クエリアテンションエンコーダ、および因果時間統合のためのコンパクトなTNヘッドを実行する。
我々のゴールは、この原理化されたウェーブレットのフロントエンドが、BCIが一般的に失敗する場所(最も難しい被験者)を正確に改善するかどうか、そして、オブジェクト内のプロトコルとオブジェクト間のプロトコルの両方で、種子の平均的にその利得が持続するかどうかをテストすることである。
BCI-IV-2a と BCI-IV-2b では、5つのシードにわたって、RatioWaveNet はトランスフォーマーのバックボーン上の最悪のオブジェクト精度を 2a 上の +0.17 / +0.42 のポイント (Sub-Dependent / LOSO) と 2b 上の +1.07 / +2.54 のポイントで改善している。
これらの結果から, 簡単なトレーニング可能なウェーブレットフロントエンドはトランスフォーマーベースのBCIを強化し, 効率を損なうことなく最悪の信頼性を向上する有効なプラグインであることが示唆された。
関連論文リスト
- Bidirectional Time-Frequency Pyramid Network for Enhanced Robust EEG Classification [2.512406961007489]
BITE(Bidirectional Time-Freq Pyramid Network)は、ロバストなマルチストリームシナジー、ピラミッド時間周波数アテンション(PTFA)、双方向適応畳み込みを特徴とするエンドツーエンドの統一アーキテクチャである。
統一アーキテクチャとして、MIタスクとSSVEPタスクの両方にわたる堅牢なパフォーマンスと、例外的な計算効率を組み合わせる。
我々の研究は、信頼性の高いBCIシステムにはスペクトル時間処理が不可欠であることを検証している。
論文 参考訳(メタデータ) (2025-10-11T04:14:48Z) - Dual-TSST: A Dual-Branch Temporal-Spectral-Spatial Transformer Model for EEG Decoding [2.0721229324537833]
デュアルブランチ時間スペクトル空間変換器(Dual-TSST)を用いた新しいデコードアーキテクチャネットワークを提案する。
提案するDual-TSSTは様々なタスクにおいて優れており,平均精度80.67%の脳波分類性能が期待できる。
本研究は,高性能脳波デコーディングへの新たなアプローチを提供するとともに,将来のCNN-Transformerベースのアプリケーションにも大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-09-05T05:08:43Z) - RIMformer: An End-to-End Transformer for FMCW Radar Interference Mitigation [1.8063750621475454]
RIMformerと呼ばれる新しいFMCWレーダ干渉緩和法は、エンドツーエンドのTransformerベース構造を用いて提案される。
このアーキテクチャは、時間領域IF信号をエンドツーエンドで処理するように設計されている。
その結果,提案したRIMformerは干渉を効果的に軽減し,ターゲット信号の復元を可能にすることがわかった。
論文 参考訳(メタデータ) (2024-07-16T07:51:20Z) - OFDM-Standard Compatible SC-NOFS Waveforms for Low-Latency and Jitter-Tolerance Industrial IoT Communications [53.398544571833135]
この研究は、スペクトル的に効率的な不規則なSinc (irSinc) 整形法を提案し、1924年に従来のSincを再考した。
irSincは、誤差性能を犠牲にすることなくスペクトル効率が向上した信号を生成する。
我々の信号は、5G標準信号構成により、同じスペクトル帯域内で高速なデータ伝送を実現する。
論文 参考訳(メタデータ) (2024-06-07T09:20:30Z) - Function Approximation for Reinforcement Learning Controller for Energy from Spread Waves [69.9104427437916]
マルチジェネレータ・ウェーブ・エナジー・コンバータ(WEC)は、スプレッド・ウェーブと呼ばれる異なる方向から来る複数の同時波を処理しなければならない。
これらの複雑な装置は、エネルギー捕獲効率、維持を制限する構造的ストレスの低減、高波に対する積極的な保護という複数の目的を持つコントローラを必要とする。
本稿では,システム力学のシーケンシャルな性質をモデル化する上で,ポリシーと批判ネットワークの異なる機能近似について検討する。
論文 参考訳(メタデータ) (2024-04-17T02:04:10Z) - Efficient Decoder-free Object Detection with Transformers [75.00499377197475]
視覚変換器(ViT)は、物体検出アプローチのランドスケープを変化させている。
本稿では,デコーダフリー完全トランス(DFFT)オブジェクト検出器を提案する。
DFFT_SMALLは、トレーニングおよび推論段階で高い効率を達成する。
論文 参考訳(メタデータ) (2022-06-14T13:22:19Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - Non-Autoregressive Transformer ASR with CTC-Enhanced Decoder Input [54.82369261350497]
CTCモジュールの予測を精算することでターゲットシーケンスを生成するCTC拡張NARトランスを提案する。
実験結果から,Aishell-1およびAishell-2データセットでは,Aishell-1およびAishell-2データセットの絶対CER劣化が0。
論文 参考訳(メタデータ) (2020-10-28T15:00:09Z) - Breaking (Global) Barriers in Parallel Stochastic Optimization with Wait-Avoiding Group Averaging [48.99717153937717]
本稿では、ウェイトアビジングサブグループであるWAGMA-SGDについて述べる。
ImageNet上でResNet-50をトレーニングし、機械翻訳用のトランスフォーマー、大規模ナビゲーションのための深い強化学習を行う。
最先端の分散SGDと比較すると、WAGMA-SGDはトレーニングのスループットを大幅に改善する。
論文 参考訳(メタデータ) (2020-04-30T22:11:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。