論文の概要: Agile gesture recognition for capacitive sensing devices: adapting
on-the-job
- arxiv url: http://arxiv.org/abs/2305.07624v1
- Date: Fri, 12 May 2023 17:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 12:02:14.530227
- Title: Agile gesture recognition for capacitive sensing devices: adapting
on-the-job
- Title(参考訳): 静電容量センシングデバイスのためのアジャイルジェスチャー認識--オンザジョブへの適応
- Authors: Ying Liu, Liucheng Guo, Valeri A. Makarov, Yuxiang Huang, Alexander
Gorban, Evgeny Mirkes, Ivan Y. Tyukin
- Abstract要約: 本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
- 参考スコア(独自算出の注目度): 55.40855017016652
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Automated hand gesture recognition has been a focus of the AI community for
decades. Traditionally, work in this domain revolved largely around scenarios
assuming the availability of the flow of images of the user hands. This has
partly been due to the prevalence of camera-based devices and the wide
availability of image data. However, there is growing demand for gesture
recognition technology that can be implemented on low-power devices using
limited sensor data instead of high-dimensional inputs like hand images. In
this work, we demonstrate a hand gesture recognition system and method that
uses signals from capacitive sensors embedded into the etee hand controller.
The controller generates real-time signals from each of the wearer five
fingers. We use a machine learning technique to analyse the time series signals
and identify three features that can represent 5 fingers within 500 ms. The
analysis is composed of a two stage training strategy, including dimension
reduction through principal component analysis and classification with K
nearest neighbour. Remarkably, we found that this combination showed a level of
performance which was comparable to more advanced methods such as supervised
variational autoencoder. The base system can also be equipped with the
capability to learn from occasional errors by providing it with an additional
adaptive error correction mechanism. The results showed that the error
corrector improve the classification performance in the base system without
compromising its performance. The system requires no more than 1 ms of
computing time per input sample, and is smaller than deep neural networks,
demonstrating the feasibility of agile gesture recognition systems based on
this technology.
- Abstract(参考訳): 自動手ジェスチャー認識は、数十年にわたりAIコミュニティの焦点となっている。
伝統的に、このドメインでの作業は、ユーザー手の画像の流れが利用できると仮定して、主にシナリオに関するものだった。
これは、カメラベースのデバイスの普及と、画像データの広範囲な利用が原因である。
しかし,手動画像のような高次元入力ではなく,限られたセンサデータを用いて低消費電力デバイスに実装できるジェスチャー認識技術への需要が高まっている。
本研究では,eteeハンドコントローラに内蔵された静電容量センサからの信号を用いたハンドジェスチャ認識システムと手法を提案する。
コントローラは、装着者各5本の指からリアルタイム信号を生成する。
時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を識別する機械学習手法を用いて,主成分分析による次元縮小とk近傍の分類を含む2段階のトレーニング戦略から分析を行った。
注目すべきことに、この組み合わせは、教師付き変分オートエンコーダのようなより高度な手法に匹敵する性能を示した。
ベースシステムは、追加の適応的エラー補正機構を提供することで、時折エラーから学習する能力も備えることができる。
その結果, 誤り訂正器は性能を損なうことなく, ベースシステムの分類性能を向上させることがわかった。
このシステムは入力サンプルあたり1ミリ秒以上の計算時間を必要とし、ディープニューラルネットワークよりも小さく、この技術に基づいたアジャイルなジェスチャー認識システムの実現可能性を示している。
関連論文リスト
- Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - Agile gesture recognition for low-power applications: customisation for generalisation [41.728933551492275]
自動手ジェスチャー認識は、長い間AIコミュニティの焦点だった。
低消費電力センサデバイスで動作するジェスチャー認識技術への需要が高まっている。
本研究では,適応的およびアジャイル的誤り訂正を用いたパターン認識システムのための新しい手法を提示する。
論文 参考訳(メタデータ) (2024-03-12T19:34:18Z) - Match and Locate: low-frequency monocular odometry based on deep feature
matching [0.65268245109828]
本稿では,1台のカメラしか必要としないロボットオドメトリーの新たなアプローチを提案する。
アプローチは、深い特徴マッチングモデルを用いて、ビデオストリームの連続フレーム間の画像特徴のマッチングに基づいている。
本研究では,AISG-SLAビジュアルローカライゼーションチャレンジにおける手法の性能評価を行い,計算効率が高く,実装が容易であるにもかかわらず,競合する結果が得られた。
論文 参考訳(メタデータ) (2023-11-16T17:32:58Z) - Towards Predicting Fine Finger Motions from Ultrasound Images via
Kinematic Representation [12.49914980193329]
米国の画像から特定指のアクティベーションを識別する推論問題について検討した。
本研究は,ロボット補綴器のアームアンプへの採用率向上に向けた重要なステップであると考えている。
論文 参考訳(メタデータ) (2022-02-10T18:05:09Z) - Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation [0.0]
移動ロボット制御のための低複雑さライダージェスチャー認識システムを提案する。
このシステムは軽量で、限られた計算能力を持つ移動ロボット制御に適している。
ライダーの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境での運用を可能にしている。
論文 参考訳(メタデータ) (2021-09-17T00:49:31Z) - Gesture Similarity Analysis on Event Data Using a Hybrid Guided
Variational Auto Encoder [3.1148846501645084]
本研究では,背景を自然分解し,時間分解能の高いジェスチャーを解析するニューロモーフィックジェスチャー解析システムを提案する。
以上の結果から,VAEが学習した特徴は,新しいジェスチャーのクラスタリングと擬似ラベル付けが可能な類似度尺度を提供することがわかった。
論文 参考訳(メタデータ) (2021-03-31T23:58:34Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Towards High Performance Human Keypoint Detection [87.1034745775229]
文脈情報は人体構成や見えないキーポイントを推論する上で重要な役割を担っている。
そこで我々は,空間とチャネルのコンテキスト情報を効率的に統合するカスケードコンテキストミキサー(CCM)を提案する。
CCMの表現能力を最大化するために、我々は、強陰性な人検出マイニング戦略と共同訓練戦略を開発する。
検出精度を向上させるために,キーポイント予測を後処理するためのいくつかのサブピクセル改良手法を提案する。
論文 参考訳(メタデータ) (2020-02-03T02:24:51Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。