論文の概要: Effective Gesture Based Framework for Capturing User Input
- arxiv url: http://arxiv.org/abs/2208.00913v1
- Date: Mon, 1 Aug 2022 14:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:28:05.075260
- Title: Effective Gesture Based Framework for Capturing User Input
- Title(参考訳): ユーザ入力をキャプチャする効果的なジェスチャベースフレームワーク
- Authors: Pabbathi Sri Charan, Saksham Gupta, Satvik Agrawal, Gadupudi Sahithi
Sindhu
- Abstract要約: 仮想キーボードのユーザーは、センサー技術と人工知能のおかげで、どんな面でもキーボードのようにタイプできる。
カメラは、その後仮想キーボードとして機能するキーボードイメージと指の動きをキャプチャするために使用される。
本稿では,指の座標を入力として受け入れる視覚的仮想マウスについても述べる。
- 参考スコア(独自算出の注目度): 0.4588028371034407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computers today aren't just confined to laptops and desktops. Mobile gadgets
like mobile phones and laptops also make use of it. However, one input device
that hasn't changed in the last 50 years is the QWERTY keyboard. Users of
virtual keyboards can type on any surface as if it were a keyboard thanks to
sensor technology and artificial intelligence. In this research, we use the
idea of image processing to create an application for seeing a computer
keyboard using a novel framework which can detect hand gestures with precise
accuracy while also being sustainable and financially viable. A camera is used
to capture keyboard images and finger movements which subsequently acts as a
virtual keyboard. In addition, a visible virtual mouse that accepts finger
coordinates as input is also described in this study. This system has a direct
benefit of reducing peripheral cost, reducing electronics waste generated due
to external devices and providing accessibility to people who cannot use the
traditional keyboard and mouse.
- Abstract(参考訳): 今日のコンピューターはラップトップやデスクトップだけではありません。
携帯電話やラップトップなどのモバイル機器も利用している。
しかし、過去50年で変わっていない入力デバイスがQWERTYキーボードです。
仮想キーボードのユーザーは、センサー技術と人工知能のおかげで、どんな表面でもキーボードのようにタイプできる。
本研究では,画像処理の考え方を用いて,コンピュータキーボードを見るためのアプリケーションを作成する。このフレームワークは,持続可能かつ経済的に実現可能でありながら,高精度なハンドジェスチャを検出できる。
カメラは、その後仮想キーボードとして機能するキーボードイメージと指の動きをキャプチャするために使用される。
また,指の座標を入力として受け入れる視覚的仮想マウスについても述べる。
このシステムは、周辺コストを削減し、外部機器に起因する電子機器の無駄を削減し、従来のキーボードやマウスを使えない人々にアクセシビリティを提供するという直接的な利点がある。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - TapType: Ten-finger text entry on everyday surfaces via Bayesian inference [32.33746932895968]
TapTypeは、受動的表面のフルサイズのタイピングのためのモバイルテキスト入力システムである。
バンド内の慣性センサーから、TapTypeは、表面タップと従来のQWERTYキーボードレイアウトをデコードして関連付ける。
論文 参考訳(メタデータ) (2024-10-08T12:58:31Z) - Improve accessibility for Low Vision and Blind people using Machine Learning and Computer Vision [0.0]
このプロジェクトでは、視覚障害者のアクセシビリティ向上に機械学習とコンピュータビジョンを活用する方法について検討する。
このプロジェクトでは、視覚障害者が音声や触覚のフィードバックを受信することで、空間内でのオリエントを支援するモバイルアプリケーションの構築に集中する。
論文 参考訳(メタデータ) (2024-03-24T21:19:17Z) - Typing on Any Surface: A Deep Learning-based Method for Real-Time
Keystroke Detection in Augmented Reality [4.857109990499532]
空中キーボードインターフェース、ワイヤレスキーボード、または音声入力は、エルゴノミクス設計が貧弱で、精度が限られているか、単に公の場で使うのが恥ずかしい。
本稿では、ユーザ視点のRGBビデオストリームから、ARアプリケーションがキーストロークを正確に予測できるディープラーニングベースのアプローチを提案し、検証する。
既製ハンドランドマーク抽出器と,適応型畳み込みリカレントニューラルネットワーク(C-RNN)を併用した2段階モデルを開発した。
論文 参考訳(メタデータ) (2023-08-31T23:58:25Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Rotating without Seeing: Towards In-hand Dexterity through Touch [43.87509744768282]
本稿では,タッチデクスタリティ(Touch Dexterity)を提案する。
小さな領域で正確な触覚センサーに頼る代わりに、ロボットハンドの片側をオーバーレイする密度の高い二分力センサー(タッチまたはタッチなし)を用いた新しいシステム設計を導入する。
我々は,各種物体のシミュレーションに強化学習を用いて手動回転ポリシーを訓練する。タッチオンリーセンシングを応用して,実際のロボットの手で直接ポリシーを展開し,トレーニングで提示されていない新規物体を回転させることができる。
論文 参考訳(メタデータ) (2023-03-20T05:38:30Z) - PRNU Based Source Camera Identification for Webcam and Smartphone Videos [137.6408511310322]
このコミュニケーションは、Webカメラ/スマートフォンビデオのソースカメラ(SCI: Source Camera Identification)を特定するためにカメラセンサ指紋を使用する画像法医学の応用に関するものである。
論文 参考訳(メタデータ) (2022-01-27T18:57:14Z) - MotionInput v2.0 supporting DirectX: A modular library of open-source
gesture-based machine learning and computer vision methods for interacting
and controlling existing software with a webcam [11.120698968989108]
MotionInput v2.0は、既存のアプリケーションやゲームの入力操作に人間の動きのジェスチャーをマッピングする。
3つのユースケース領域は、創造性ソフトウェア、オフィスおよび臨床ソフトウェア、ゲームソフトウェアというモジュールの開発を支援した。
論文 参考訳(メタデータ) (2021-08-10T08:23:21Z) - TypeNet: Deep Learning Keystroke Biometrics [77.80092630558305]
TypeNetは、アイデンティティ毎に適度な数のキーストロークでトレーニングされた、リカレントニューラルネットワークである。
5つのギャラリーシーケンスと長さ50のテストシーケンスにより、TypeNetは最先端のキーストロークバイオメトリック認証性能を実現します。
実験では,最大10,000人の被験者による誤りの程度の増加を実証し,インターネット規模でのTypeNetの運用の可能性を示した。
論文 参考訳(メタデータ) (2021-01-14T12:49:09Z) - Gestop : Customizable Gesture Control of Computer Systems [0.3553493344868413]
Gestopはデモからジェスチャーを検出することを学習するフレームワークで、エンドユーザがカスタマイズできる。
ユーザはジェスチャーを使って、RGBのカメラしか持たないコンピュータとリアルタイムで対話できる。
論文 参考訳(メタデータ) (2020-10-25T19:13:01Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。