論文の概要: Gradual Relation Network: Decoding Intuitive Upper Extremity Movement
Imaginations Based on Few-Shot EEG Learning
- arxiv url: http://arxiv.org/abs/2005.02602v1
- Date: Wed, 6 May 2020 05:55:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:41:32.397775
- Title: Gradual Relation Network: Decoding Intuitive Upper Extremity Movement
Imaginations Based on Few-Shot EEG Learning
- Title(参考訳): 段階的関係ネットワーク : 初歩的脳波学習に基づく直観的上肢運動想像力のデコード
- Authors: Kyung-Hwan Shim, Ji-Hoon Jeong, Seong-Whan Lee
- Abstract要約: リアルタイム脳-コンピュータインタフェース(BCI)環境では、ユーザとセッション毎に校正手順が必要である。
この問題を回避するために、直感的な上肢運動想像力(MI)の復号化にメートル法に基づく少ショット学習アプローチを採用する。
さらに,実時間ロボットアーム制御のシナリオにおいて,数ショット方式による直感的MIデコーディングの実現可能性を示した。
- 参考スコア(独自算出の注目度): 23.676856160884224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain-computer interface (BCI) is a communication tool that connects users
and external devices. In a real-time BCI environment, a calibration procedure
is particularly necessary for each user and each session. This procedure
consumes a significant amount of time that hinders the application of a BCI
system in a real-world scenario. To avoid this problem, we adopt the metric
based few-shot learning approach for decoding intuitive upper-extremity
movement imagination (MI) using a gradual relation network (GRN) that can
gradually consider the combination of temporal and spectral groups. We acquired
the MI data of the upper-arm, forearm, and hand associated with intuitive
upper-extremity movement from 25 subjects. The grand average multiclass
classification results under offline analysis were 42.57%, 55.60%, and 80.85%
in 1-, 5-, and 25-shot settings, respectively. In addition, we could
demonstrate the feasibility of intuitive MI decoding using the few-shot
approach in real-time robotic arm control scenarios. Five participants could
achieve a success rate of 78% in the drinking task. Hence, we demonstrated the
feasibility of the online robotic arm control with shortened calibration time
by focusing on human body parts but also the accommodation of various untrained
intuitive MI decoding based on the proposed GRN.
- Abstract(参考訳): brain-computer interface (bci) は、ユーザと外部デバイスを結ぶコミュニケーションツールである。
リアルタイムbci環境では、各ユーザと各セッションにキャリブレーション手順が特に必要である。
この手順は、実世界のシナリオにおけるBCIシステムの適用を妨げるかなりの時間を消費する。
そこで本研究では, 時間群とスペクトル群の組合せを徐々に考慮できる段階的関係ネットワーク (grn) を用いて, 直感的な上肢運動想像力 (mi) のデコードを行うための, メトリックベース・マイズショット学習手法を採用する。
25名から上腕・前腕・手部のmiデータを取得し,直観的上肢運動との関連を検討した。
オフライン分析による総合的な多クラス分類の結果は、それぞれ42.57%、55.60%、および80.85%の1-、5-、25-shot設定であった。
さらに,実時間ロボットアーム制御シナリオにおいて,マイデコーディングの直感的実現可能性を示すことができた。
5人の参加者が78%の成功率を達成した。
そこで,本研究では,人体部品に焦点をあててキャリブレーション時間を短縮したオンラインロボットアーム制御の実現可能性を示した。
関連論文リスト
- Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Online Recognition of Incomplete Gesture Data to Interface Collaborative
Robots [0.0]
本稿では,ウェアラブルセンサで捉えた静的ジェスチャー(SG)と動的ジェスチャー(DG)の大きな語彙を分類するためのHRIフレームワークを提案する。
認識されたジェスチャーは、朝食の食事を準備する共同作業でロボットを遠隔操作するために使用される。
論文 参考訳(メタデータ) (2023-04-13T18:49:08Z) - Simultaneous Estimation of Hand Configurations and Finger Joint Angles
using Forearm Ultrasound [8.753262480814493]
前腕超音波画像は、手の動きを理解するのに使える筋骨格の可視化を提供する。
我々は,MPP関節角度を予測するためのCNNベースのディープラーニングパイプラインを提案する。
ヒューマン・マシン・インタフェースのリアルタイム制御を目的としたMPP関節角度と手構成の両方を推定するための低遅延パイプラインが提案されている。
論文 参考訳(メタデータ) (2022-11-29T02:06:19Z) - Motor imagery classification using EEG spectrograms [9.05607520128194]
手足の動きの想像力(MI)は脳-コンピュータインタフェース(BCI)システムにとって重要である。
脳波(EEG)によるMI検出により,ユーザの動きの想像力を認識できる。
本稿では,前訓練した深層学習アルゴリズムを用いて上肢運動の分類を行う。
論文 参考訳(メタデータ) (2022-11-15T17:57:17Z) - FingerFlex: Inferring Finger Trajectories from ECoG signals [68.8204255655161]
FingerFlexモデル(FingerFlex model)は、脳波(ECoG)データに対する指の動きの回帰に適応した畳み込みエンコーダ・デコーダアーキテクチャである。
実測軌道と予測軌道の相関係数が最大0.74であるBCIコンペティションIVデータセット4で最先端の性能が達成された。
論文 参考訳(メタデータ) (2022-10-23T16:26:01Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - MIN2Net: End-to-End Multi-Task Learning for Subject-Independent Motor
Imagery EEG Classification [10.773708402778025]
脳波のリズムは被験者に特有のものであり、時間とともに様々な変化が起こる。
本稿では,この課題に対処するための新しいエンドツーエンドマルチタスク学習であるMIN2Netを提案する。
深層学習をマルチタスクオートエンコーダに統合し,脳波からコンパクトかつ識別可能な潜在表現を学習する。
論文 参考訳(メタデータ) (2021-02-07T15:20:23Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Physical Action Categorization using Signal Analysis and Machine
Learning [2.430361444826172]
本稿では,4つの物理行動の分類のための機械学習に基づくフレームワークを提案する。
表面筋電図 (SEMG) は, 物理的運動を信号に変換して分類し, 使用するための非侵襲的なメカニズムを示す。
論文 参考訳(メタデータ) (2020-08-16T18:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。