論文の概要: BRAVE: Brain-Controlled Prosthetic Arm with Voice Integration and Embodied Learning for Enhanced Mobility
- arxiv url: http://arxiv.org/abs/2506.18749v1
- Date: Fri, 23 May 2025 11:44:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-29 09:28:14.853853
- Title: BRAVE: Brain-Controlled Prosthetic Arm with Voice Integration and Embodied Learning for Enhanced Mobility
- Title(参考訳): BRAVE:音声統合と身体学習による運動能力向上のための脳制御義肢
- Authors: Abdul Basit, Maha Nawaz, Muhammad Shafique,
- Abstract要約: BRAVEは、ハイブリッド脳波と音声制御義肢システムである。
脳波駆動運動の意図を解釈することを目的としており、残筋活動に依存することなく運動制御を可能にする。
システムはリアルタイムで動作し、応答遅延は150msである。
- 参考スコア(独自算出の注目度): 5.528262076322921
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-invasive brain-computer interfaces (BCIs) have the potential to enable intuitive control of prosthetic limbs for individuals with upper limb amputations. However, existing EEG-based control systems face challenges related to signal noise, classification accuracy, and real-time adaptability. In this work, we present BRAVE, a hybrid EEG and voice-controlled prosthetic system that integrates ensemble learning-based EEG classification with a human-in-the-loop (HITL) correction framework for enhanced responsiveness. Unlike traditional electromyography (EMG)-based prosthetic control, BRAVE aims to interpret EEG-driven motor intent, enabling movement control without reliance on residual muscle activity. To improve classification robustness, BRAVE combines LSTM, CNN, and Random Forest models in an ensemble framework, achieving a classification accuracy of 96% across test subjects. EEG signals are preprocessed using a bandpass filter (0.5-45 Hz), Independent Component Analysis (ICA) for artifact removal, and Common Spatial Pattern (CSP) feature extraction to minimize contamination from electromyographic (EMG) and electrooculographic (EOG) signals. Additionally, BRAVE incorporates automatic speech recognition (ASR) to facilitate intuitive mode switching between different degrees of freedom (DOF) in the prosthetic arm. The system operates in real time, with a response latency of 150 ms, leveraging Lab Streaming Layer (LSL) networking for synchronized data acquisition. The system is evaluated on an in-house fabricated prosthetic arm and on multiple participants highlighting the generalizability across users. The system is optimized for low-power embedded deployment, ensuring practical real-world application beyond high-performance computing environments. Our results indicate that BRAVE offers a promising step towards robust, real-time, non-invasive prosthetic control.
- Abstract(参考訳): 非侵襲的脳-コンピュータインタフェース(BCI)は上肢切断患者の義肢の直感的な制御を可能にする可能性がある。
しかし、既存のEEGベースの制御システムは、信号ノイズ、分類精度、リアルタイム適応性に関連する課題に直面している。
本研究では, アンサンブル学習に基づく脳波分類と, 応答性を高めるためのHuman-in-the-loop(HITL)補正フレームワークを統合するハイブリッド脳波と音声制御義肢システムであるBRAVEを提案する。
従来の筋電図(EMG)ベースの補綴制御とは異なり、BRAVEは脳波駆動の運動意図を解釈することを目的としており、残筋活動に依存することなく運動制御を可能にする。
分類堅牢性を改善するため、BRAVEはLSTM、CNN、ランダムフォレストモデルをアンサンブルフレームワークで組み合わせ、試験対象者間で96%の分類精度を達成する。
脳波信号は、アーティファクト除去のための帯域通過フィルタ(0.5-45Hz)、独立成分分析(ICA)、電顕(EMG)および電顕(EOG)信号からの汚染を最小限に抑えるための共通空間パターン(CSP)特徴抽出を用いて前処理される。
さらに、BRAVEは自動音声認識(ASR)を導入し、義肢の異なる自由度(DOF)間の直感的なモード切替を容易にする。
このシステムはリアルタイムで動作し、応答レイテンシは150ミリ秒であり、同期データ取得にラボストリーミング層(LSL)ネットワークを利用する。
本システムは、内装義肢と、ユーザ間の一般化性を強調した複数の参加者で評価される。
このシステムは低消費電力の組み込み配置に最適化されており、高性能コンピューティング環境を超えた実用的な実世界のアプリケーションを保証する。
以上の結果から,BRAVEは頑健でリアルタイムな非侵襲的義肢制御に向けて,有望な一歩を踏み出したことが示唆された。
関連論文リスト
- BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [50.76802709706976]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
多様なデータソースを統一するために、脳の活動を離散表現に定量化する最初のトークンであるBrainTokenizerを紹介します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - EEG Emotion Copilot: Optimizing Lightweight LLMs for Emotional EEG Interpretation with Assisted Medical Record Generation [12.707059419820848]
本稿では,脳波信号から直接感情状態を認識する脳波感情コパイロットについて述べる。
その後、パーソナライズされた診断と治療の提案を生成し、最終的に支援された電子カルテの自動化をサポートする。
提案手法は,医療分野における情動コンピューティングの適用を推し進めることが期待される。
論文 参考訳(メタデータ) (2024-09-30T19:15:05Z) - Hybrid Spiking Neural Networks for Low-Power Intra-Cortical Brain-Machine Interfaces [42.72938925647165]
皮質内脳-機械界面(iBMI)は麻痺患者の生活を劇的に改善する可能性がある。
現在のiBMIは、ハードウェアと配線が大きすぎるため、スケーラビリティとモビリティの制限に悩まされている。
無線iBMIにおける組込みニューラルデコーディングのためのハイブリッドスパイキングニューラルネットワークについて検討している。
論文 参考訳(メタデータ) (2024-09-06T17:48:44Z) - EEG Right & Left Voluntary Hand Movement-based Virtual Brain-Computer Interfacing Keyboard Using Hybrid Deep Learning Approach [0.0]
我々は,任意のキーストロークを正確に識別できる脳波ベースのBMIシステムを開発した。
提案手法は,脳波信号の解釈モデルとして,BiGRU-Attentionを用いたハイブリッドニューラルネットワークアーキテクチャを用いる。
論文 参考訳(メタデータ) (2024-08-18T02:10:29Z) - EKGNet: A 10.96{\mu}W Fully Analog Neural Network for Intra-Patient
Arrhythmia Classification [79.7946379395238]
心電図不整脈分類におけるアナログ計算と深層学習を組み合わせた統合的アプローチを提案する。
本稿では,低消費電力で高精度にアーカイブするハードウェア効率と完全アナログ不整脈分類アーキテクチャであるEKGNetを提案する。
論文 参考訳(メタデータ) (2023-10-24T02:37:49Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - Upper Limb Movement Recognition utilising EEG and EMG Signals for
Rehabilitative Robotics [0.0]
上肢運動分類のための新しい決定レベル多センサ融合手法を提案する。
システムは脳波信号をEMG信号と統合し、両方の情報源から効果的な情報を取得し、ユーザの欲求を理解し予測する。
論文 参考訳(メタデータ) (2022-07-18T14:51:23Z) - Grasp-and-Lift Detection from EEG Signal Using Convolutional Neural
Network [1.869097450593631]
本稿では,32チャネル脳波信号から手動動作ビズGALを検出する手法を自動化した。
提案したパイプラインは、基本的には前処理とエンドツーエンド検出ステップを組み合わせたもので、手作りの機能エンジニアリングの必要性を排除している。
論文 参考訳(メタデータ) (2022-02-12T19:27:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。