論文の概要: A Real-Time BCI for Stroke Hand Rehabilitation Using Latent EEG Features from Healthy Subjects
- arxiv url: http://arxiv.org/abs/2510.15890v1
- Date: Sun, 07 Sep 2025 22:19:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.076444
- Title: A Real-Time BCI for Stroke Hand Rehabilitation Using Latent EEG Features from Healthy Subjects
- Title(参考訳): 健常者からの潜在脳波特徴を用いたストロークハンドリハビリテーションのためのリアルタイムBCI
- Authors: F. M. Omar, A. M. Omar, K. H. Eyada, M. Rabie, M. A. Kamel, A. M. Azab,
- Abstract要約: 本研究では,脳卒中患者の手リハビリテーションを支援するために,リアルタイムでポータブルな脳-コンピュータインタフェース(BCI)システムを提案する。
このシステムは、低コストで3Dプリントされたロボット外骨格と、脳信号を物理的な手の動きに変換する内蔵のコントローラーを組み合わせる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents a real-time, portable brain-computer interface (BCI) system designed to support hand rehabilitation for stroke patients. The system combines a low cost 3D-printed robotic exoskeleton with an embedded controller that converts brain signals into physical hand movements. EEG signals are recorded using a 14-channel Emotiv EPOC+ headset and processed through a supervised convolutional autoencoder (CAE) to extract meaningful latent features from single-trial data. The model is trained on publicly available EEG data from healthy individuals (WAY-EEG-GAL dataset), with electrode mapping adapted to match the Emotiv headset layout. Among several tested classifiers, Ada Boost achieved the highest accuracy (89.3%) and F1-score (0.89) in offline evaluations. The system was also tested in real time on five healthy subjects, achieving classification accuracies between 60% and 86%. The complete pipeline - EEG acquisition, signal processing, classification, and robotic control - is deployed on an NVIDIA Jetson Nano platform with a real-time graphical interface. These results demonstrate the system's potential as a low-cost, standalone solution for home-based neurorehabilitation.
- Abstract(参考訳): 本研究では,脳卒中患者の手リハビリテーションを支援するために,リアルタイムでポータブルな脳-コンピュータインタフェース(BCI)システムを提案する。
このシステムは、低コストで3Dプリントされたロボット外骨格と、脳信号を物理的な手の動きに変換する内蔵のコントローラーを組み合わせる。
EEG信号は、14チャンネルのEPOC+ヘッドセットを使用して記録され、教師付き畳み込みオートエンコーダ(CAE)を通して処理され、単一の心的データから有意義な潜在的特徴を抽出する。
このモデルは、健康な個人(WAY-EEG-GALデータセット)から公開されている脳波データに基づいてトレーニングされており、電極マッピングはEmotivヘッドセットのレイアウトに合わせて適合している。
いくつかの試験された分類器の中で、Ada Boostは最高精度(89.3%)とF1スコア(0.89)をオフライン評価で達成した。
また,健常者5名を対象に実時間検査を行い,60%から86%の分類精度を得た。
完全なパイプライン – EEGの取得,信号処理,分類,ロボットコントロール – は,リアルタイムなグラフィカルインターフェースを備えたNVIDIA Jetson Nanoプラットフォームにデプロイされている。
これらの結果は、ホームベースの神経リハビリテーションのための低コストでスタンドアロンのソリューションとしてのシステムの可能性を示している。
関連論文リスト
- EEG Emotion Recognition Through Deep Learning [0.0]
テスト精度は91%に達し、SVM、DNN、ロジスティック回帰といった従来のモデルを上回った。
このモデルでは、62の5電極のみを利用することで、EEG装置の要求を低減できる。
この進歩は、メディアコンテンツ消費によって引き起こされる気分変化の今後の探索の土台となる。
論文 参考訳(メタデータ) (2025-11-19T22:14:05Z) - BRAVE: Brain-Controlled Prosthetic Arm with Voice Integration and Embodied Learning for Enhanced Mobility [5.528262076322921]
BRAVEは、ハイブリッド脳波と音声制御義肢システムである。
脳波駆動運動の意図を解釈することを目的としており、残筋活動に依存することなく運動制御を可能にする。
システムはリアルタイムで動作し、応答遅延は150msである。
論文 参考訳(メタデータ) (2025-05-23T11:44:33Z) - BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [46.121056431476156]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
既存のアプローチは一般的に、パフォーマンスとクロスドメインのスケーラビリティを制限する、分離、モダリティ、データセット固有のモデルに依存します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - emg2qwerty: A Large Dataset with Baselines for Touch Typing using Surface Electromyography [47.160223334501126]
emg2qwertyは、QWERTYキーボードでタッチ入力しながら手首に記録された非侵襲的筋電図信号の大規模なデータセットである。
1,135のセッションが108ユーザと346時間の録画にまたがっており、これまでで最大の公開データセットである。
sEMG信号のみを用いたキープレッシャの予測において,高いベースライン性能を示す。
論文 参考訳(メタデータ) (2024-10-26T05:18:48Z) - On-device Learning of EEGNet-based Network For Wearable Motor Imagery Brain-Computer Interface [2.1710886744493263]
本稿では,ウェアラブルモータ画像認識のための軽量で効率的なオンデバイス学習エンジンを実装した。
我々は,メモリフットプリントが15.6KByteのベースラインに対して,最大7.31%の顕著な精度向上を示した。
我々の調整されたアプローチは、オンライントレーニング中に1回の推論で14.9ms、0.76mJ、1回の推測で20us、0.83uJの推論時間を示す。
論文 参考訳(メタデータ) (2024-08-25T08:23:51Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - FingerFlex: Inferring Finger Trajectories from ECoG signals [68.8204255655161]
FingerFlexモデル(FingerFlex model)は、脳波(ECoG)データに対する指の動きの回帰に適応した畳み込みエンコーダ・デコーダアーキテクチャである。
実測軌道と予測軌道の相関係数が最大0.74であるBCIコンペティションIVデータセット4で最先端の性能が達成された。
論文 参考訳(メタデータ) (2022-10-23T16:26:01Z) - Wheelchair automation by a hybrid BCI system using SSVEP and eye blinks [1.1099588962062936]
プロトタイプは、定常的に視覚的に誘発される電位と眼の点滅の複合メカニズムに基づいている。
プロトタイプは、ユーザを不快にさせることなく、家庭環境で効率的に使用することができる。
論文 参考訳(メタデータ) (2021-06-10T08:02:31Z) - Convolutional Neural Networks for Automatic Detection of Artifacts from
Independent Components Represented in Scalp Topographies of EEG Signals [9.088303226909279]
眼球運動や点滅、筋/心臓活動、一般的な電気障害などによるアーチファクトの認識と排除が求められている。
ICAは、2Dの頭皮のトポグラフィー(画像)に再投影することで、人工物とUBSを認識・分離できる独立したコンポーネント(IC)に信号を切り分けるのに効果的である。
2次元畳み込みニューラルネットワーク(CNN)に基づくICトポロによる脳波アーチファクト認識のための,完全自動かつ効果的なフレームワークを提案する。
実験では、32のトポロを分類するために標準PCで1.4秒を使用、全体の98%以上の精度を示した。
論文 参考訳(メタデータ) (2020-09-08T12:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。