論文の概要: BiND: A Neural Discriminator-Decoder for Accurate Bimanual Trajectory Prediction in Brain-Computer Interfaces
- arxiv url: http://arxiv.org/abs/2509.03521v1
- Date: Tue, 19 Aug 2025 10:18:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-07 09:10:15.28599
- Title: BiND: A Neural Discriminator-Decoder for Accurate Bimanual Trajectory Prediction in Brain-Computer Interfaces
- Title(参考訳): BiND:脳-コンピュータインタフェースにおける正確な双方向軌道予測のためのニューラルディクリミネータデコーダ
- Authors: Timothee Robert, MohammadAli Shaeri, Mahsa Shoaran,
- Abstract要約: BiND (Bimanual Neural Discriminator-Decoder) は、まずモーションタイプを分類し、次に特殊なGRUベースのデコーダを使用する2段階モデルである。
テトラプレジック患者からの13セッションの皮質内データセットを用いて,6つの最先端モデルに対してBiNDをベンチマークした。
- 参考スコア(独自算出の注目度): 2.5725730509014353
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Decoding bimanual hand movements from intracortical recordings remains a critical challenge for brain-computer interfaces (BCIs), due to overlapping neural representations and nonlinear interlimb interactions. We introduce BiND (Bimanual Neural Discriminator-Decoder), a two-stage model that first classifies motion type (unimanual left, unimanual right, or bimanual) and then uses specialized GRU-based decoders, augmented with a trial-relative time index, to predict continuous 2D hand velocities. We benchmark BiND against six state-of-the-art models (SVR, XGBoost, FNN, CNN, Transformer, GRU) on a publicly available 13-session intracortical dataset from a tetraplegic patient. BiND achieves a mean $R^2$ of 0.76 ($\pm$0.01) for unimanual and 0.69 ($\pm$0.03) for bimanual trajectory prediction, surpassing the next-best model (GRU) by 2% in both tasks. It also demonstrates greater robustness to session variability than all other benchmarked models, with accuracy improvements of up to 4% compared to GRU in cross-session analyses. This highlights the effectiveness of task-aware discrimination and temporal modeling in enhancing bimanual decoding.
- Abstract(参考訳): 両手の動きを皮質内記録から復号することは脳-コンピュータインタフェース(BCI)にとって重要な課題であり、これは重なり合う神経表現と非線形なインターリンブ相互作用によるものである。
BiND(Bimanual Neural Discriminator-Decoder)は、まず、動作タイプ(一次元左、一次元右、二次元右)を分類し、その後、GRUベースの専用デコーダを用いて、2次元手指速度の連続予測を行う2段階モデルである。
四肢麻痺患者の13セッションの皮質内データセットを用いて,6つの最先端モデル (SVR, XGBoost, FNN, CNN, Transformer, GRU) を比較した。
BiNDは、一元的ならば平均$R^2$ 0.76$\pm$0.01、二元的軌道予測なら0.69$\pm$0.03で、両方のタスクにおいて次の最良モデル(GRU)を2%上回る。
また、セッション変数の堅牢性は他のベンチマークモデルよりも向上し、クロスセッション分析ではGRUと比較して最大4%の精度向上を実現している。
このことは、双方向デコーディングの強化におけるタスク認識の識別と時間的モデリングの有効性を強調している。
関連論文リスト
- Explainable AI for Comparative Analysis of Intrusion Detection Models [20.683181384051395]
本研究は,ネットワークトラフィックから侵入検出を行うために,各種機械学習モデルを二分分類および多クラス分類のタスクに解析する。
すべてのモデルをUNSW-NB15データセットで90%の精度でトレーニングしました。
また、Random Forestは正確さ、時間効率、堅牢性という点で最高のパフォーマンスを提供します。
論文 参考訳(メタデータ) (2024-06-14T03:11:01Z) - Improving Dual-Encoder Training through Dynamic Indexes for Negative
Mining [61.09807522366773]
本稿では,ソフトマックスを証明可能な境界で近似し,木を動的に維持するアルゴリズムを提案する。
我々は,2000万以上のターゲットを持つデータセットについて検討し,オラクル・ブルート力負の鉱業に関して,誤差を半分に削減した。
論文 参考訳(メタデータ) (2023-03-27T15:18:32Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - FingerFlex: Inferring Finger Trajectories from ECoG signals [68.8204255655161]
FingerFlexモデル(FingerFlex model)は、脳波(ECoG)データに対する指の動きの回帰に適応した畳み込みエンコーダ・デコーダアーキテクチャである。
実測軌道と予測軌道の相関係数が最大0.74であるBCIコンペティションIVデータセット4で最先端の性能が達成された。
論文 参考訳(メタデータ) (2022-10-23T16:26:01Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - A data-set of piercing needle through deformable objects for Deep
Learning from Demonstrations [0.21096737598952847]
本稿では,ダ・ヴィンチ・リサーチ・キットの2本の腕で針を挿入/ピアスするデータセットについて述べる。
我々は、単純なフィードフォワードCNNと異なるリカレント畳み込みネットワーク(RCN)を含む、いくつかの深いRLfDアーキテクチャを実装している。
本研究は、ベースラインフィードフォワードCNNが、ロボットの視覚情報と次のステップ制御動作の関係をうまく学習しているにもかかわらず、RCNがモデルの予測精度を向上させることを示唆している。
論文 参考訳(メタデータ) (2020-12-04T08:27:06Z) - Self-attention-based BiGRU and capsule network for named entity
recognition [1.8348489257164355]
NERのための自己注意型双方向ゲートリカレントユニット(BiGRU)とカプセルネットワーク(CapsNet)を提案する。
BiGRUはシーケンスコンテキストの特徴をキャプチャするために使用され、BiGRUの隠蔽層が捉えた情報に異なるフォーカスを与える自己認識機構が提案されている。
2つのデータセット上でモデルの認識性能を評価する。
論文 参考訳(メタデータ) (2020-01-30T21:51:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。