論文の概要: WaveGlove: Transformer-based hand gesture recognition using multiple
inertial sensors
- arxiv url: http://arxiv.org/abs/2105.01753v1
- Date: Tue, 4 May 2021 20:50:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 23:39:17.044763
- Title: WaveGlove: Transformer-based hand gesture recognition using multiple
inertial sensors
- Title(参考訳): waveglove: 複数の慣性センサを用いたトランスフォーマーベースのハンドジェスチャー認識
- Authors: Matej Kr\'alik, Marek \v{S}uppa
- Abstract要約: 近年、慣性データに基づく手のジェスチャー認識(HGR)が大幅に増加しています。
本研究では,複数の慣性センサを利用するメリットを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hand Gesture Recognition (HGR) based on inertial data has grown considerably
in recent years, with the state-of-the-art approaches utilizing a single
handheld sensor and a vocabulary comprised of simple gestures.
In this work we explore the benefits of using multiple inertial sensors.
Using WaveGlove, a custom hardware prototype in the form of a glove with five
inertial sensors, we acquire two datasets consisting of over $11000$ samples.
To make them comparable with prior work, they are normalized along with $9$
other publicly available datasets, and subsequently used to evaluate a range of
Machine Learning approaches for gesture recognition, including a newly proposed
Transformer-based architecture. Our results show that even complex gestures
involving different fingers can be recognized with high accuracy.
An ablation study performed on the acquired datasets demonstrates the
importance of multiple sensors, with an increase in performance when using up
to three sensors and no significant improvements beyond that.
- Abstract(参考訳): 慣性データに基づくハンドジェスチャ認識(HGR)は近年,単一のハンドヘルドセンサと単純なジェスチャーからなる語彙を利用した最先端のアプローチによって大きく成長している。
本研究では,複数の慣性センサの利点について検討する。
WaveGloveは、5つの慣性センサーを備えたグローブ型のカスタムハードウェアプロトタイプで、1万1000ドル以上のサンプルからなる2つのデータセットを取得する。
それらを以前の作業と同等にするために、他の公開データセットとともに正規化され、その後、新しく提案されたトランスフォーマーベースのアーキテクチャを含むジェスチャー認識の機械学習アプローチを評価するために使用される。
その結果,指の異なる複雑なジェスチャーでも高い精度で認識できることがわかった。
取得したデータセットに対するアブレーション調査では、複数のセンサーの重要性が示され、最大3つのセンサーを使用する場合のパフォーマンスが向上し、それ以上の大幅な改善はない。
関連論文リスト
- Transferring Tactile Data Across Sensors [1.5566524830295307]
本稿では,触覚センサ間のデータ変換手法について紹介する。
我々は、BioTac信号をDIGITセンサーに変換することで、アプローチを実証する。
筆者らのフレームワークは,信号データを対応する3次元変形メッシュに変換する第2のステップと,これら3次元変形メッシュを1つのセンサから別のセンサへ変換する第3のステップと,出力画像を生成する第3のステップで構成されている。
論文 参考訳(メタデータ) (2024-10-18T09:15:47Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Bridging Remote Sensors with Multisensor Geospatial Foundation Models [15.289711240431107]
msGFMは4つのキーセンサーからのデータを統合する多センサ地理空間基盤モデルである。
同一の位置情報から得られるデータに対して、我々のモデルは革新的なクロスセンサー事前学習アプローチを採用している。
msGFMは、シングルセンサーとマルチセンサーの両方の下流タスクにおいて、高い習熟度を示した。
論文 参考訳(メタデータ) (2024-04-01T17:30:56Z) - Virtual Fusion with Contrastive Learning for Single Sensor-based
Activity Recognition [5.225544155289783]
各種センサはHAR(Human Activity Recognition)に使用することができる。
1つのセンサーがユーザーの動きをその視点で完全に観察できない場合があり、誤った予測を引き起こす。
トレーニング中に複数のタイム同期センサーからラベル付けされていないデータを活用できる新しい方法であるVirtual Fusionを提案する。
論文 参考訳(メタデータ) (2023-12-01T17:03:27Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Learning Online Multi-Sensor Depth Fusion [100.84519175539378]
SenFuNetは、センサ固有のノイズと外れ値統計を学習するディープフュージョンアプローチである。
実世界のCoRBSとScene3Dデータセットで様々なセンサーの組み合わせで実験を行う。
論文 参考訳(メタデータ) (2022-04-07T10:45:32Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - SensiX: A Platform for Collaborative Machine Learning on the Edge [69.1412199244903]
センサデータとセンサモデルの間に留まるパーソナルエッジプラットフォームであるSensiXを紹介する。
動作および音声に基づくマルチデバイスセンシングシステムの開発において,その有効性を示す。
評価の結果,SensiXは3mWのオーバヘッドを犠牲にして,全体の精度が7~13%向上し,環境のダイナミクスが最大30%向上することがわかった。
論文 参考訳(メタデータ) (2020-12-04T23:06:56Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。