論文の概要: Enabling hand gesture customization on wrist-worn devices
- arxiv url: http://arxiv.org/abs/2203.15239v1
- Date: Tue, 29 Mar 2022 05:12:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 06:08:05.270209
- Title: Enabling hand gesture customization on wrist-worn devices
- Title(参考訳): 手首縫い装置における手指ジェスチャーのカスタマイズ
- Authors: Xuhai Xu, Jun Gong, Carolina Brum, Lilian Liang, Bongsoo Suh, Kumar
Gupta, Yash Agarwal, Laurence Lindsey, Runchang Kang, Behrooz Shahsavari, Tu
Nguyen, Heriberto Nieto, Scott E. Hudson, Charlie Maalouf, Seyed Mousavi,
Gierad Laput
- Abstract要約: 既存のジェスチャーセットの性能を劣化させることなく、ユーザから最小限のサンプルを必要とするジェスチャーカスタマイズのためのフレームワークを提案する。
われわれのアプローチは、ユーザーが既存のジェスチャーに縛られない未来への道を切り拓き、自分の好みや能力に合わせた新しいジェスチャーを創造的に導入することを可能にする。
- 参考スコア(独自算出の注目度): 28.583516259577486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a framework for gesture customization requiring minimal examples
from users, all without degrading the performance of existing gesture sets. To
achieve this, we first deployed a large-scale study (N=500+) to collect data
and train an accelerometer-gyroscope recognition model with a cross-user
accuracy of 95.7% and a false-positive rate of 0.6 per hour when tested on
everyday non-gesture data. Next, we design a few-shot learning framework which
derives a lightweight model from our pre-trained model, enabling knowledge
transfer without performance degradation. We validate our approach through a
user study (N=20) examining on-device customization from 12 new gestures,
resulting in an average accuracy of 55.3%, 83.1%, and 87.2% on using one,
three, or five shots when adding a new gesture, while maintaining the same
recognition accuracy and false-positive rate from the pre-existing gesture set.
We further evaluate the usability of our real-time implementation with a user
experience study (N=20). Our results highlight the effectiveness, learnability,
and usability of our customization framework. Our approach paves the way for a
future where users are no longer bound to pre-existing gestures, freeing them
to creatively introduce new gestures tailored to their preferences and
abilities.
- Abstract(参考訳): 既存のジェスチャーセットの性能を劣化させることなく、ユーザから最小限のサンプルを必要とするジェスチャーカスタマイズのためのフレームワークを提案する。
これを実現するために,まず大規模研究(n=500+)を実施し,加速度計・ジャイロスコープ認識モデルを95.7%,偽陽性率0.6/hで訓練した。
次に,事前学習したモデルから軽量モデルを導出して,性能低下を伴わずに知識伝達を実現する,数ショット学習フレームワークを設計した。
提案手法は,12種類のジェスチャからデバイス上でのカスタマイズを検証したユーザ調査(n=20)によって検証され,既存のジェスチャセットと同一の認識精度と偽陽性率を維持しつつ,新たなジェスチャを追加する場合,平均精度55.3%,83.1%,87.2%の精度が得られた。
ユーザエクスペリエンススタディ(N=20)により,リアルタイム実装のユーザビリティをさらに評価する。
その結果,カスタマイズフレームワークの有効性,学習性,ユーザビリティが明らかになった。
われわれのアプローチは、ユーザーが既存のジェスチャーに縛られない未来への道を切り開いて、自分の好みや能力に合わせた新しいジェスチャーを創造的に導入する。
関連論文リスト
- Wearable Sensor-Based Few-Shot Continual Learning on Hand Gestures for Motor-Impaired Individuals via Latent Embedding Exploitation [6.782362178252351]
本稿では,リプレイベースのFew-Shot連続学習フレームワークにおいて,Latent Embedding Exploitation (LEE) 機構を導入する。
本手法は,ジェスチャー先行知識として知られる保存された潜伏埋め込みを利用して,多様な潜伏特徴空間を生成する。
本手法は、運動障害者がウェアラブルデバイスを活用するのに役立ち、そのユニークな動作スタイルを学習し応用することができる。
論文 参考訳(メタデータ) (2024-05-14T21:20:27Z) - Boosting Gesture Recognition with an Automatic Gesture Annotation Framework [10.158684480548242]
そこで本稿では,ジェスチャクラスを自動的にアノテートし,その時間範囲を識別するフレームワークを提案する。
本フレームワークは,(1)コネクショニスト時間分類(CTC)の損失を利用した新しいアノテーションモデル,(2)半教師付き学習パイプラインからなる。
これらの高品質な擬似ラベルは、他の下流ジェスチャ認識モデルの精度を高めるためにも使用できる。
論文 参考訳(メタデータ) (2024-01-20T07:11:03Z) - Towards Open-World Gesture Recognition [19.019579924491847]
手首輪デバイスに基づくジェスチャー認識などのジェスチャー認識を含む実世界のアプリケーションでは、データ分布は時間とともに変化する可能性がある。
本稿では,機械学習モデルが新しいタスクに適応できるようにするために,継続学習の利用を提案する。
オープンワールドな手首のジェスチャー認識プロセスの開発を促進するための設計ガイドラインを提供する。
論文 参考訳(メタデータ) (2024-01-20T06:45:16Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Fast Learning of Dynamic Hand Gesture Recognition with Few-Shot Learning
Models [0.0]
我々は5~10種類のダイナミックハンドジェスチャを認識するために訓練されたFew-Shot Learningモデルを開発した。
モデルは、手の動き毎に1つ、2つ、5つの例をモデルに提供することで、任意に交換可能である。
その結果、5の認識では88.8%、10のダイナミックハンドジェスチャでは81.2%の精度が得られた。
論文 参考訳(メタデータ) (2022-12-16T09:31:15Z) - 3D Pose Based Feedback for Physical Exercises [87.35086507661227]
ユーザが犯した誤りを識別する学習ベースのフレームワークを導入する。
私たちのフレームワークはハードコードされたルールに頼るのではなく、データからそれらを学ぶのです。
提案手法は90.9%の誤り識別精度を示し,94.2%の誤り訂正に成功した。
論文 参考訳(メタデータ) (2022-08-05T16:15:02Z) - A high performance fingerprint liveness detection method based on
quality related features [66.41574316136379]
このシステムは、10,500枚以上の実画像と偽画像からなる非常に難しいデータベースでテストされている。
提案手法はマルチシナリオデータセットに対して堅牢であることが証明され、全体の90%が正しく分類されたサンプルである。
論文 参考訳(メタデータ) (2021-11-02T21:09:39Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Transfer Learning for Human Activity Recognition using Representational
Analysis of Neural Networks [0.5898893619901381]
本稿では,人間の行動認識のための伝達学習フレームワークを提案する。
転送学習を使わずに,ベースラインと比較して43%の精度向上と66%のトレーニング時間短縮を実現した。
論文 参考訳(メタデータ) (2020-12-05T01:35:11Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - A Simple Framework for Contrastive Learning of Visual Representations [116.37752766922407]
本稿では,視覚表現のコントラスト学習のためのシンプルなフレームワークであるSimCLRについて述べる。
我々は,データ拡張の構成が効果的な予測タスクを定義する上で重要な役割を担っていることを示す。
我々は、ImageNet上での自己教師付き半教師付き学習において、従来の手法よりもかなり優れています。
論文 参考訳(メタデータ) (2020-02-13T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。