論文の概要: HeadText: Exploring Hands-free Text Entry using Head Gestures by Motion
Sensing on a Smart Earpiece
- arxiv url: http://arxiv.org/abs/2205.09978v1
- Date: Fri, 20 May 2022 06:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 15:35:31.039974
- Title: HeadText: Exploring Hands-free Text Entry using Head Gestures by Motion
Sensing on a Smart Earpiece
- Title(参考訳): HeadText: スマートイヤーピースのモーションセンシングによるヘッドジェスチャを用いたハンズフリーテキスト入力
- Authors: Songlin Xu, Guanjie Wang, Ziyuan Fang, Guangwei Zhang, Guangzhu Shang,
Rongde Lu, Liqun He
- Abstract要約: HeadTextは、モーションセンシングによるテキスト入力のためのスマートイヤホンのハンズフリーテクニックである。
ユーザーはキーの選択、単語の選択、単語のコミットメント、単語のキャンセルタスクに7つのヘッドジェスチャしか利用していないテキストを入力する。
- 参考スコア(独自算出の注目度): 0.5172201569251684
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present HeadText, a hands-free technique on a smart earpiece for text
entry by motion sensing. Users input text utilizing only 7 head gestures for
key selection, word selection, word commitment and word cancelling tasks. Head
gesture recognition is supported by motion sensing on a smart earpiece to
capture head moving signals and machine learning algorithms (K-Nearest-Neighbor
(KNN) with a Dynamic Time Warping (DTW) distance measurement). A 10-participant
user study proved that HeadText could recognize 7 head gestures at an accuracy
of 94.29%. After that, the second user study presented that HeadText could
achieve a maximum accuracy of 10.65 WPM and an average accuracy of 9.84 WPM for
text entry. Finally, we demonstrate potential applications of HeadText in
hands-free scenarios for (a). text entry of people with motor impairments, (b).
private text entry, and (c). socially acceptable text entry.
- Abstract(参考訳): HeadTextは、モーションセンシングによるテキスト入力のためのスマートイヤホンのハンズフリー技術である。
ユーザは、キー選択、単語選択、単語コミットメント、単語キャンセルタスクのために7つのヘッドジェスチャのみを使用してテキストを入力する。
頭部のジェスチャー認識は、スマートイヤホンのモーションセンシングによってサポートされ、頭の動き信号と機械学習アルゴリズム(k-nearest-neighbor (knn)、ダイナミックタイムワーピング(dtw)距離測定)を捉える。
10人の参加者による調査では、7つのヘッドジェスチャを94.29%の精度で認識できた。
その後、第2のユーザ調査では、HeadTextは最大精度10.65WPM、平均精度9.84WPMを達成することができた。
最後に,HeadTextのハンズフリーシナリオへの応用の可能性を示す。
(a)
運動障害のある人のテキスト入力
(b)
プライベートテキストのエントリと
(c)。
社会的に受け入れられるテキスト入力。
関連論文リスト
- TapType: Ten-finger text entry on everyday surfaces via Bayesian inference [32.33746932895968]
TapTypeは、受動的表面のフルサイズのタイピングのためのモバイルテキスト入力システムである。
バンド内の慣性センサーから、TapTypeは、表面タップと従来のQWERTYキーボードレイアウトをデコードして関連付ける。
論文 参考訳(メタデータ) (2024-10-08T12:58:31Z) - TouchInsight: Uncertainty-aware Rapid Touch and Text Input for Mixed Reality from Egocentric Vision [25.271209425555906]
任意の物理的表面上の10本の指すべてからタッチ入力を検出するリアルタイムパイプラインを提案する。
筆者らのTouchInsightは,タッチイベントの瞬間,指の接触,タッチ位置を予測するニューラルネットワークを備える。
論文 参考訳(メタデータ) (2024-10-08T11:42:44Z) - Hands-Free VR [46.09189595704163]
本稿は、VRのための音声ベースの自然言語インタフェースであるHands-Free VRを紹介する。
ユーザは音声を使ってコマンドを与え、音声音声データを音声からテキストへの深層学習モデルを用いてテキストに変換する。
テキストは、自然言語の多様性に対して堅牢な大きな言語モデルを使用して、実行可能VRコマンドにマッピングされる。
論文 参考訳(メタデータ) (2024-02-23T04:02:23Z) - MMSpeech: Multi-modal Multi-task Encoder-Decoder Pre-training for Speech
Recognition [75.12948999653338]
マンダリン自動音声認識(ASR)のためのマルチタスクエンコーダ-デコーダ事前学習フレームワーク(MMSpeech)を提案する。
我々は、音声とテキストデータを用いた5つの自己教師付きタスクを含むマルチタスク学習フレームワークを採用する。
AISHELL-1を用いた実験により,提案手法は従来手法と比較して40%以上の改善が得られた。
論文 参考訳(メタデータ) (2022-11-29T13:16:09Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - Lie-Sensor: A Live Emotion Verifier or a Licensor for Chat Applications
using Emotional Intelligence [0.0]
ライブ感情分析と検証は、ライブチャットで苦情を申し立てた詐欺を無効化します。
この感情的な人工知能検証の背後にある主なコンセプトは、メッセージのアカウンタビリティをライセンスまたは拒否することです。
感情検出のために, miniXceptionモデルを用いたConvolutional Neural Network (CNN)を展開した。
テキスト予測では、サポートベクターマシン(SVM)自然言語処理確率を選択します。
論文 参考訳(メタデータ) (2021-02-11T02:47:30Z) - Motion-Based Handwriting Recognition [1.0742675209112622]
モーションセンサを備えたスタイラスをデザインし,ジャイロスコープと加速度センサによる読み出しを利用して文字分類を行う。
また、さまざまなデータ増強技術とその効果を探索し、最大86%の精度に達します。
論文 参考訳(メタデータ) (2021-01-15T09:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。