論文の概要: Accelerography: Feasibility of Gesture Typing using Accelerometer
- arxiv url: http://arxiv.org/abs/2003.14310v1
- Date: Sun, 29 Mar 2020 20:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 13:21:19.847997
- Title: Accelerography: Feasibility of Gesture Typing using Accelerometer
- Title(参考訳): 加速度計によるジェスチャタイピングの可能性
- Authors: Arindam Roy Chowdhury, Abhinandan Dalal and Shubhajit Sen
- Abstract要約: 我々は、英語アルファベット全体のジェスチャーを構築し、連続的に構築された場合でも、そのジェスチャーを識別するアルゴリズムを提供する。
英語のアルファベットでの平均精度は97.33%である。
- 参考スコア(独自算出の注目度): 3.8509397654735813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we aim to look into the feasibility of constructing alphabets
using gestures. The main idea is to construct gestures, that are easy to
remember, not cumbersome to reproduce and easily identifiable. We construct
gestures for the entire English alphabet and provide an algorithm to identify
the gestures, even when they are constructed continuously. We tackle the
problem statistically, taking into account the problem of randomness in the
hand movement gestures of users, and achieve an average accuracy of 97.33% with
the entire English alphabet.
- Abstract(参考訳): 本稿では,ジェスチャーを用いたアルファベット構築の実現可能性を検討することを目的とする。
主なアイデアは、記憶が容易で、再現が面倒で、識別が容易なジェスチャーを構築することである。
英語アルファベット全体のジェスチャを構築し,連続的に構築された場合でもジェスチャを識別するアルゴリズムを提供する。
ユーザの手の動きの無作為性の問題を考慮し、統計的にこの問題に取り組み、英語アルファベット全体の平均精度97.33%を達成した。
関連論文リスト
- Bukva: Russian Sign Language Alphabet [75.42794328290088]
本稿では,ロシア手話(RSL)ダクティルとしても知られる,ロシア語の指先文字の認識について検討する。
ダクティル (Dactyl) は手の動きが書かれた言語の個々の文字を表す手話の構成要素である。
当社は、RSLダクチル認識のための、最初の本格的なオープンソースビデオデータセットであるBakvaを提供している。
論文 参考訳(メタデータ) (2024-10-11T09:59:48Z) - EvSign: Sign Language Recognition and Translation with Streaming Events [59.51655336911345]
イベントカメラは、動的手の動きを自然に知覚し、手話作業のための豊富な手作業の手がかりを提供する。
イベントベースSLRおよびSLTタスクのための効率的なトランスフォーマーベースフレームワークを提案する。
計算コストは0.34%に過ぎず,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2024-07-17T14:16:35Z) - Self-Supervised Representation Learning with Spatial-Temporal Consistency for Sign Language Recognition [96.62264528407863]
本研究では,空間的時間的整合性を通じてリッチな文脈を探索する自己教師付きコントラスト学習フレームワークを提案する。
動きと関節のモーダル性の相補性に着想を得て,手話モデルに一階動作情報を導入する。
提案手法は,4つの公開ベンチマークの広範な実験により評価され,新しい最先端性能と顕著なマージンを実現している。
論文 参考訳(メタデータ) (2024-06-15T04:50:19Z) - Stream State-tying for Sign Language Recognition [12.048165989937798]
手のジェスチャー信号は6つの同期データストリームで表現されていると仮定する。
5177の中国標識の実験が行われた。
論文 参考訳(メタデータ) (2024-04-21T23:21:52Z) - Efficiently Leveraging Linguistic Priors for Scene Text Spotting [63.22351047545888]
本稿では,大規模テキストコーパスから言語知識を活用する手法を提案する。
シーンテキストデータセットとよく一致したテキスト分布を生成し、ドメイン内の微調整の必要性を取り除く。
実験結果から,本手法は認識精度を向上するだけでなく,単語のより正確な局所化を可能にすることが示された。
論文 参考訳(メタデータ) (2024-02-27T01:57:09Z) - QPGesture: Quantization-Based and Phase-Guided Motion Matching for
Natural Speech-Driven Gesture Generation [8.604430209445695]
音声によるジェスチャー生成は、人間の動きのランダムなジッタのため、非常に困難である。
本稿では,新しい量子化に基づく位相誘導型モーションマッチングフレームワークを提案する。
本手法は,音声によるジェスチャー生成における近年の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:31:25Z) - GesGPT: Speech Gesture Synthesis With Text Parsing from ChatGPT [8.18076191897917]
ジェスチャー合成は重要な研究分野として注目されている。
深層学習に基づくアプローチは目覚ましい進歩を遂げているが、テキストに存在するリッチな意味情報を見落としていることが多い。
本稿では,大規模言語モデルの意味解析機能を活用したジェスチャ生成手法であるGesGPTを提案する。
論文 参考訳(メタデータ) (2023-03-23T03:30:30Z) - Weakly-supervised Fingerspelling Recognition in British Sign Language
Videos [85.61513254261523]
従来の指スペル認識法は、British Sign Language (BSL) に焦点を絞っていない
従来の手法とは対照的に,本手法はトレーニング用字幕の弱いアノテーションのみを使用する。
本稿では,このタスクに適応したTransformerアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-16T15:02:36Z) - Skeleton Based Sign Language Recognition Using Whole-body Keypoints [71.97020373520922]
手話は聴覚障害者や言語障害者のコミュニケーションに使用される。
また,RGB-D法と組み合わせて最先端の性能を実現することで,Skeletonに基づく音声認識が普及しつつある。
近年のボディポーズ推定用citejin 2020wholeの開発に触発されて,全身キーポイントと特徴に基づく手話認識を提案する。
論文 参考訳(メタデータ) (2021-03-16T03:38:17Z) - American Sign Language Identification Using Hand Trackpoint Analysis [0.0]
ハンドトラックポイントを用いたアメリカ手話識別のための新しい機械学習ベースパイプラインを提案する。
我々は手の動きを,システムへの入力として機能する一連のハンドトラックポイント座標に変換する。
我々のシステムは、アメリカの手話のジェスチャーを識別するために95.66%の精度を達成した。
論文 参考訳(メタデータ) (2020-10-20T19:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。