論文の概要: TapType: Ten-finger text entry on everyday surfaces via Bayesian inference
- arxiv url: http://arxiv.org/abs/2410.06001v1
- Date: Tue, 8 Oct 2024 12:58:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 11:40:34.110400
- Title: TapType: Ten-finger text entry on everyday surfaces via Bayesian inference
- Title(参考訳): TapType:ベイジアン推論による毎日の表面の10指テキスト入力
- Authors: Paul Streli, Jiaxi Jiang, Andreas Fender, Manuel Meier, Hugo Romat, Christian Holz,
- Abstract要約: TapTypeは、受動的表面のフルサイズのタイピングのためのモバイルテキスト入力システムである。
バンド内の慣性センサーから、TapTypeは、表面タップと従来のQWERTYキーボードレイアウトをデコードして関連付ける。
- 参考スコア(独自算出の注目度): 32.33746932895968
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite the advent of touchscreens, typing on physical keyboards remains most efficient for entering text, because users can leverage all fingers across a full-size keyboard for convenient typing. As users increasingly type on the go, text input on mobile and wearable devices has had to compromise on full-size typing. In this paper, we present TapType, a mobile text entry system for full-size typing on passive surfaces--without an actual keyboard. From the inertial sensors inside a band on either wrist, TapType decodes and relates surface taps to a traditional QWERTY keyboard layout. The key novelty of our method is to predict the most likely character sequences by fusing the finger probabilities from our Bayesian neural network classifier with the characters' prior probabilities from an n-gram language model. In our online evaluation, participants on average typed 19 words per minute with a character error rate of 0.6% after 30 minutes of training. Expert typists thereby consistently achieved more than 25 WPM at a similar error rate. We demonstrate applications of TapType in mobile use around smartphones and tablets, as a complement to interaction in situated Mixed Reality outside visual control, and as an eyes-free mobile text input method using an audio feedback-only interface.
- Abstract(参考訳): タッチスクリーンの登場にもかかわらず、物理キーボードのタイピングはテキスト入力に最も効率的である。
モバイルやウェアラブルデバイスでのテキスト入力は、ユーザーがますますタイプするにつれて、フルサイズのタイピングに妥協しなければならなかった。
本稿では,実際のキーボードを使わずに受動面上でのフルサイズのタイピングを行うモバイルテキスト入力システムであるTapTypeを提案する。
バンド内の慣性センサーから、TapTypeは、表面タップと従来のQWERTYキーボードレイアウトをデコードして関連付ける。
本手法の主な特徴は,ベイズニューラルネットワーク分類器の指の確率を,n-gram言語モデルからの文字の事前確率と融合させることにより,最も可能性の高い文字列を予測することである。
オンライン評価では,30分後の文字誤り率0.6%で1分間平均19語を入力した。
これにより、専門家のタイピストは、同様のエラー率で25WPM以上を継続的に達成した。
我々はスマートフォンやタブレットのモバイル利用におけるTapTypeの応用を実演し、視覚制御外におけるMixed Realityのインタラクションを補完し、音声フィードバックのみのインタフェースを用いた目のないモバイルテキスト入力方法として紹介する。
関連論文リスト
- Acoustic Side Channel Attack on Keyboards Based on Typing Patterns [0.0]
キーボードに対するサイドチャネル攻撃は、入力デバイスとしてキーボードを使用する多くのシステムにおけるセキュリティ対策をバイパスすることができる。
本稿では,現実的な環境におけるユーザのタイピングパターンを考慮に入れた適用方法を提案する。
本手法は実世界のシナリオを考慮した場合, ケーススタディ全体で平均43%の成功率を達成した。
論文 参考訳(メタデータ) (2024-03-13T17:44:15Z) - OverHear: Headphone based Multi-sensor Keystroke Inference [1.9915929143641455]
我々は,ヘッドホンの音響および加速度計データを活用するキーストローク推論フレームワークを開発した。
メカニカルキーボードのキー予測精度は,メカニカルキーボードのキー予測精度が約80%,膜キーボードのキー予測精度が約60%である。
その結果,現実シナリオの文脈におけるアプローチの有効性と限界が浮き彫りになった。
論文 参考訳(メタデータ) (2023-11-04T00:48:20Z) - Typing on Any Surface: A Deep Learning-based Method for Real-Time
Keystroke Detection in Augmented Reality [4.857109990499532]
空中キーボードインターフェース、ワイヤレスキーボード、または音声入力は、エルゴノミクス設計が貧弱で、精度が限られているか、単に公の場で使うのが恥ずかしい。
本稿では、ユーザ視点のRGBビデオストリームから、ARアプリケーションがキーストロークを正確に予測できるディープラーニングベースのアプローチを提案し、検証する。
既製ハンドランドマーク抽出器と,適応型畳み込みリカレントニューラルネットワーク(C-RNN)を併用した2段階モデルを開発した。
論文 参考訳(メタデータ) (2023-08-31T23:58:25Z) - Effective Gesture Based Framework for Capturing User Input [0.4588028371034407]
仮想キーボードのユーザーは、センサー技術と人工知能のおかげで、どんな面でもキーボードのようにタイプできる。
カメラは、その後仮想キーボードとして機能するキーボードイメージと指の動きをキャプチャするために使用される。
本稿では,指の座標を入力として受け入れる視覚的仮想マウスについても述べる。
論文 参考訳(メタデータ) (2022-08-01T14:58:17Z) - Mobile Behavioral Biometrics for Passive Authentication [65.94403066225384]
本研究は, 単モーダルおよび多モーダルな行動的生体特性の比較分析を行った。
HuMIdbは、最大かつ最も包括的なモバイルユーザインタラクションデータベースである。
我々の実験では、最も識別可能な背景センサーは磁力計であり、タッチタスクではキーストロークで最良の結果が得られる。
論文 参考訳(メタデータ) (2022-03-14T17:05:59Z) - X2T: Training an X-to-Text Typing Interface with Online Learning from
User Feedback [83.95599156217945]
ユーザがキーボードを操作できないが、他の入力を供給できる、補助型タイピングアプリケーションに焦点を当てる。
標準メソッドは、ユーザ入力の固定データセット上でモデルをトレーニングし、そのミスから学ばない静的インターフェースをデプロイする。
このようなインターフェースが時間の経過とともに改善されるようなシンプルなアイデアを,ユーザによる最小限の努力で検討する。
論文 参考訳(メタデータ) (2022-03-04T00:07:20Z) - TapNet: The Design, Training, Implementation, and Applications of a
Multi-Task Learning CNN for Off-Screen Mobile Input [75.05709030478073]
本稿では,スマートフォンのタップを検出するマルチタスクネットワークであるTapNetの設計,トレーニング,実装,応用について述べる。
TapNetはデバイス間のデータから共同で学習し、タップ方向やタップ位置を含む複数のタップ特性を同時に認識することができる。
論文 参考訳(メタデータ) (2021-02-18T00:45:41Z) - TypeNet: Deep Learning Keystroke Biometrics [77.80092630558305]
TypeNetは、アイデンティティ毎に適度な数のキーストロークでトレーニングされた、リカレントニューラルネットワークである。
5つのギャラリーシーケンスと長さ50のテストシーケンスにより、TypeNetは最先端のキーストロークバイオメトリック認証性能を実現します。
実験では,最大10,000人の被験者による誤りの程度の増加を実証し,インターネット規模でのTypeNetの運用の可能性を示した。
論文 参考訳(メタデータ) (2021-01-14T12:49:09Z) - TypeNet: Scaling up Keystroke Biometrics [79.19779718346128]
まず、リカレントニューラルネットワーク(RNN)を用いて、ユーザ毎のデータ量が不足している場合に、ユーザを認証できる範囲を分析した。
ネットワークのテストに1Kのユーザがいるため、TypeNetのエラー率は4.8%である。
ユーザ毎のデータ量と同じで、テストユーザ数が100Kまでスケールアップされるため、1Kと比較してパフォーマンスは5%以下に低下する。
論文 参考訳(メタデータ) (2020-04-07T18:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。