論文の概要: SplashNet: Split-and-Share Encoders for Accurate and Efficient Typing with Surface Electromyography
- arxiv url: http://arxiv.org/abs/2506.12356v1
- Date: Sat, 14 Jun 2025 05:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.90768
- Title: SplashNet: Split-and-Share Encoders for Accurate and Efficient Typing with Surface Electromyography
- Title(参考訳): SplashNet:表面筋電図による高精度かつ効率的なタイピングのための分割共有エンコーダ
- Authors: Nima Hadidi, Jason Chan, Ebrahim Feghhi, Jonathan Kao,
- Abstract要約: 手首にある表面筋電図(sEMG)は、キーボードのない自然なテキスト入力を可能にする。
最先端の Emg2qwerty ベースラインは、まだ見知らぬユーザーのゼロショット設定で511.8%の文字を認識していない。
これらの誤りの多くを、ユーザ間信号統計のミスマッチに追従する。
- 参考スコア(独自算出の注目度): 0.036883880024577764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Surface electromyography (sEMG) at the wrists could enable natural, keyboard-free text entry, yet the state-of-the-art emg2qwerty baseline still misrecognizes $51.8\%$ of characters in the zero-shot setting on unseen users and $7.0\%$ after user-specific fine-tuning. We trace many of these errors to mismatched cross-user signal statistics, fragile reliance on high-order feature dependencies, and the absence of architectural inductive biases aligned with the bilateral nature of typing. To address these issues, we introduce three simple modifications: (i) Rolling Time Normalization, which adaptively aligns input distributions across users; (ii) Aggressive Channel Masking, which encourages reliance on low-order feature combinations more likely to generalize across users; and (iii) a Split-and-Share encoder that processes each hand independently with weight-shared streams to reflect the bilateral symmetry of the neuromuscular system. Combined with a five-fold reduction in spectral resolution ($33\!\rightarrow\!6$ frequency bands), these components yield a compact Split-and-Share model, SplashNet-mini, which uses only $\tfrac14$ the parameters and $0.6\times$ the FLOPs of the baseline while reducing character-error rate (CER) to $36.4\%$ zero-shot and $5.9\%$ after fine-tuning. An upscaled variant, SplashNet ($\tfrac12$ the parameters, $1.15\times$ the FLOPs of the baseline), further lowers error to $35.7\%$ and $5.5\%$, representing relative improvements of $31\%$ and $21\%$ in the zero-shot and fine-tuned settings, respectively. SplashNet therefore establishes a new state of the art without requiring additional data.
- Abstract(参考訳): 手首にある表面筋電図(sEMG)は、自然でキーボードのないテキスト入力を可能にするが、最先端の Emg2qwerty ベースラインは、目に見えないユーザーのゼロショット設定で51.8\% の文字と、ユーザー固有の微調整後に7.0\% の文字を誤解している。
これらの誤りの多くは、ユーザ間の信号統計のミスマッチ、高次特徴依存への脆弱な依存、および型付けの両面の性質に適合するアーキテクチャ上の帰納的バイアスが欠如していることに遡る。
これらの問題に対処するために、私たちは3つの簡単な修正を紹介します。
一 ユーザ間の入力分布を適応的に整合させる転がり時間正規化
(ii)低次機能の組み合わせへの依存を促す攻撃的チャネルマスキング(Aggressive Channel Masking)
(iii)神経筋系の左右対称を反映する重み付きストリームで各手を独立に処理するスプリット・アンド・シェアエンコーダ。
5倍のスペクトル分解能の低下(33ドル!
きゃーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
SplashNet-miniはパラメータとして$\tfrac14$と$0.6\timesのFLOPしか使用せず、文字エラー率(CER)を36.4\%のゼロショットと5.9\%に下げている。
アップスケール版SplashNet($\tfrac12$パラメータ、$1.15\times$ベースラインのFLOP)はエラーを35.7\%$と$5.5\%$に下げ、ゼロショット設定と微調整設定でそれぞれ311\%$と221\%$の相対的な改善を表現している。
これによりSplashNetは、追加のデータを必要とせずに、新たな最先端を確立できる。
関連論文リスト
- A3 : an Analytical Low-Rank Approximation Framework for Attention [14.649496050074735]
トレーニング後の低ランク近似フレームワークである$tt Attt 3$を提案する。
tt Attt 3$ は SoTA よりも優れたパフォーマンスを維持していることを示す。
また、KVキャッシュ圧縮、量子化、性能向上のための混合ランク代入など、$tt Att 3$の汎用性も示す。
論文 参考訳(メタデータ) (2025-05-19T10:29:32Z) - (Private) Kernelized Bandits with Distributed Biased Feedback [13.312928989951505]
分散バイアスフィードバックを用いたカーネル化された帯域幅について検討する。
Emphdistributed phase-then-batch-based elimination (textttDPBE)アルゴリズムを提案する。
textttDPBE は $tildeO(T1-alpha/2+sqrtgamma_TT)$ のサブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-01-28T02:30:15Z) - From CNNs to Shift-Invariant Twin Models Based on Complex Wavelets [7.812210699650151]
我々は第1層の組み合わせを "real-valued convolutions + max pooling" に置き換える。
我々は、CModとRMaxが、畳み込みカーネルが帯域通過で向き付けられたときに、同等の出力を生成すると主張している。
提案手法は,ImageNetとCIFAR-10の分類タスクにおいて,優れた精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T09:42:55Z) - FeDXL: Provable Federated Learning for Deep X-Risk Optimization [105.17383135458897]
我々は、既存のアルゴリズムが適用できないXリスクのファミリーを最適化するために、新しい連邦学習(FL)問題に取り組む。
Xリスクに対するFLアルゴリズムを設計する際の課題は、複数のマシンに対する目的の非可逆性と、異なるマシン間の相互依存にある。
論文 参考訳(メタデータ) (2022-10-26T00:23:36Z) - Parameterization of Cross-Token Relations with Relative Positional
Encoding for Vision MLP [52.25478388220691]
視覚多層パーセプトロン(MLP)はコンピュータビジョンタスクにおいて有望な性能を示す。
トークンミキシングレイヤを使用して、トランスフォーマーが使用するマルチヘッド自己保持機構とは対照的に、クロストークンインタラクションをキャプチャする。
トークン混合のためのクロストークン関係を効率的に符号化する新しい位置空間ゲーティングユニット(PoSGU)を提案する。
論文 参考訳(メタデータ) (2022-07-15T04:18:06Z) - Bounding the Width of Neural Networks via Coupled Initialization -- A
Worst Case Analysis [121.9821494461427]
2層ReLUネットワークに必要なニューロン数を著しく削減する方法を示す。
また、事前の作業を改善するための新しい下位境界を証明し、ある仮定の下では、最善を尽くすことができることを証明します。
論文 参考訳(メタデータ) (2022-06-26T06:51:31Z) - HideNseek: Federated Lottery Ticket via Server-side Pruning and Sign
Supermask [11.067931264340931]
フェデレーション学習は、ローカルモデルの更新のみを中央サーバに送信することで、分散学習におけるプライバシーリスクを軽減する。
従来の研究は、パーソナライズと量子化とプルーニングを含むモデル圧縮スキームを組み合わせることで、これらの課題に対処してきた。
本稿では,重みのシナプス性に基づくサブネットワークを実現するために,ワンショットデータ非依存プルーニングを用いたHydenNseekを提案する。
論文 参考訳(メタデータ) (2022-06-09T09:55:31Z) - 1$\times$N Block Pattern for Network Sparsity [90.43191747596491]
我々は,この制限を破るために,ブロック間隔パターン(ブロックプルーニング)を1時間で定義する新しい概念を提案する。
このパターンはMobileNet-V2の上位1の精度でフィルタプルーニングよりも約3.0%改善されている。
また、重み付けによるCortex-A7 CPUの56.04msの推論も得る。
論文 参考訳(メタデータ) (2021-05-31T05:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。