論文の概要: Enabling hand gesture customization on wrist-worn devices
- arxiv url: http://arxiv.org/abs/2203.15239v1
- Date: Tue, 29 Mar 2022 05:12:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 06:08:05.270209
- Title: Enabling hand gesture customization on wrist-worn devices
- Title(参考訳): 手首縫い装置における手指ジェスチャーのカスタマイズ
- Authors: Xuhai Xu, Jun Gong, Carolina Brum, Lilian Liang, Bongsoo Suh, Kumar
Gupta, Yash Agarwal, Laurence Lindsey, Runchang Kang, Behrooz Shahsavari, Tu
Nguyen, Heriberto Nieto, Scott E. Hudson, Charlie Maalouf, Seyed Mousavi,
Gierad Laput
- Abstract要約: 既存のジェスチャーセットの性能を劣化させることなく、ユーザから最小限のサンプルを必要とするジェスチャーカスタマイズのためのフレームワークを提案する。
われわれのアプローチは、ユーザーが既存のジェスチャーに縛られない未来への道を切り拓き、自分の好みや能力に合わせた新しいジェスチャーを創造的に導入することを可能にする。
- 参考スコア(独自算出の注目度): 28.583516259577486
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a framework for gesture customization requiring minimal examples
from users, all without degrading the performance of existing gesture sets. To
achieve this, we first deployed a large-scale study (N=500+) to collect data
and train an accelerometer-gyroscope recognition model with a cross-user
accuracy of 95.7% and a false-positive rate of 0.6 per hour when tested on
everyday non-gesture data. Next, we design a few-shot learning framework which
derives a lightweight model from our pre-trained model, enabling knowledge
transfer without performance degradation. We validate our approach through a
user study (N=20) examining on-device customization from 12 new gestures,
resulting in an average accuracy of 55.3%, 83.1%, and 87.2% on using one,
three, or five shots when adding a new gesture, while maintaining the same
recognition accuracy and false-positive rate from the pre-existing gesture set.
We further evaluate the usability of our real-time implementation with a user
experience study (N=20). Our results highlight the effectiveness, learnability,
and usability of our customization framework. Our approach paves the way for a
future where users are no longer bound to pre-existing gestures, freeing them
to creatively introduce new gestures tailored to their preferences and
abilities.
- Abstract(参考訳): 既存のジェスチャーセットの性能を劣化させることなく、ユーザから最小限のサンプルを必要とするジェスチャーカスタマイズのためのフレームワークを提案する。
これを実現するために,まず大規模研究(n=500+)を実施し,加速度計・ジャイロスコープ認識モデルを95.7%,偽陽性率0.6/hで訓練した。
次に,事前学習したモデルから軽量モデルを導出して,性能低下を伴わずに知識伝達を実現する,数ショット学習フレームワークを設計した。
提案手法は,12種類のジェスチャからデバイス上でのカスタマイズを検証したユーザ調査(n=20)によって検証され,既存のジェスチャセットと同一の認識精度と偽陽性率を維持しつつ,新たなジェスチャを追加する場合,平均精度55.3%,83.1%,87.2%の精度が得られた。
ユーザエクスペリエンススタディ(N=20)により,リアルタイム実装のユーザビリティをさらに評価する。
その結果,カスタマイズフレームワークの有効性,学習性,ユーザビリティが明らかになった。
われわれのアプローチは、ユーザーが既存のジェスチャーに縛られない未来への道を切り開いて、自分の好みや能力に合わせた新しいジェスチャーを創造的に導入する。
関連論文リスト
- UWB Based Static Gesture Classification [0.0]
UWBに基づく静的ジェスチャー認識のためのロバストなフレームワークを提案する。
我々の最高の性能モデルは96.78%の精度を達成した。
本研究は,UWB技術を用いた静的ジェスチャー認識の高度化に向けた重要な一歩である。
論文 参考訳(メタデータ) (2023-10-23T15:34:03Z) - It's all about you: Personalized in-Vehicle Gesture Recognition with a
Time-of-Flight Camera [0.0]
CNNLSTMモデルのトレーニングをパーソナライズするためのモデル適応手法を提案する。
本手法は運転時の動的手動作認識の分野に寄与する。
論文 参考訳(メタデータ) (2023-10-02T21:48:19Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Fast Learning of Dynamic Hand Gesture Recognition with Few-Shot Learning
Models [0.0]
我々は5~10種類のダイナミックハンドジェスチャを認識するために訓練されたFew-Shot Learningモデルを開発した。
モデルは、手の動き毎に1つ、2つ、5つの例をモデルに提供することで、任意に交換可能である。
その結果、5の認識では88.8%、10のダイナミックハンドジェスチャでは81.2%の精度が得られた。
論文 参考訳(メタデータ) (2022-12-16T09:31:15Z) - 3D Pose Based Feedback for Physical Exercises [87.35086507661227]
ユーザが犯した誤りを識別する学習ベースのフレームワークを導入する。
私たちのフレームワークはハードコードされたルールに頼るのではなく、データからそれらを学ぶのです。
提案手法は90.9%の誤り識別精度を示し,94.2%の誤り訂正に成功した。
論文 参考訳(メタデータ) (2022-08-05T16:15:02Z) - A high performance fingerprint liveness detection method based on
quality related features [66.41574316136379]
このシステムは、10,500枚以上の実画像と偽画像からなる非常に難しいデータベースでテストされている。
提案手法はマルチシナリオデータセットに対して堅牢であることが証明され、全体の90%が正しく分類されたサンプルである。
論文 参考訳(メタデータ) (2021-11-02T21:09:39Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Transfer Learning for Human Activity Recognition using Representational
Analysis of Neural Networks [0.5898893619901381]
本稿では,人間の行動認識のための伝達学習フレームワークを提案する。
転送学習を使わずに,ベースラインと比較して43%の精度向上と66%のトレーニング時間短縮を実現した。
論文 参考訳(メタデータ) (2020-12-05T01:35:11Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - A Framework for Behavioral Biometric Authentication using Deep Metric
Learning on Mobile Devices [17.905483523678964]
バッテリー駆動のモバイルデバイス上でのトレーニングを取り入れた新しいフレームワークを提案する。これにより、プライベートデータはデバイスを離れることなく、実行時の動作パターンに柔軟に適応するようにトレーニングをスケジュールすることができる。
実験では、3つの公開データセットで95%以上の認証精度が示され、データが少ないマルチクラスの分類では15%の精度が向上し、それぞれ99%と90%が成功したブルートフォース攻撃とサイドチャネル攻撃に対する堅牢性が向上した。
その結果,トレーニングはビデオ視聴よりも低エネルギーを消費し,ゲームよりも若干高いエネルギーを消費していることがわかった。
論文 参考訳(メタデータ) (2020-05-26T17:56:20Z) - A Simple Framework for Contrastive Learning of Visual Representations [116.37752766922407]
本稿では,視覚表現のコントラスト学習のためのシンプルなフレームワークであるSimCLRについて述べる。
我々は,データ拡張の構成が効果的な予測タスクを定義する上で重要な役割を担っていることを示す。
我々は、ImageNet上での自己教師付き半教師付き学習において、従来の手法よりもかなり優れています。
論文 参考訳(メタデータ) (2020-02-13T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。