論文の概要: GesSure -- A Robust Face-Authentication enabled Dynamic Gesture
Recognition GUI Application
- arxiv url: http://arxiv.org/abs/2207.11033v1
- Date: Fri, 22 Jul 2022 12:14:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 13:39:03.568695
- Title: GesSure -- A Robust Face-Authentication enabled Dynamic Gesture
Recognition GUI Application
- Title(参考訳): gessure -- 動的ジェスチャー認識guiアプリケーションを可能にする堅牢な顔認証
- Authors: Ankit Jha, Ishita Pratham G. Shenwai, Ayush Batra, Siddharth Kotian,
Piyush Modi
- Abstract要約: 本稿では,頑健で顔認証が可能なジェスチャー認識システムを設計することを目的とする。
タスク操作に意味があり、関連するジェスチャーを使用します。
私たちのプロトタイプは、保存、印刷、ビデオプレイヤの操作と終了の制御、スリープ、シャットダウン、直感的にアンロックといった文脈に依存しないオペレーティングシステムタスクをうまく実行しました。
- 参考スコア(独自算出の注目度): 1.3649494534428745
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using physical interactive devices like mouse and keyboards hinders
naturalistic human-machine interaction and increases the probability of surface
contact during a pandemic. Existing gesture-recognition systems do not possess
user authentication, making them unreliable. Static gestures in current
gesture-recognition technology introduce long adaptation periods and reduce
user compatibility. Our technology places a strong emphasis on user recognition
and safety. We use meaningful and relevant gestures for task operation,
resulting in a better user experience. This paper aims to design a robust,
face-verification-enabled gesture recognition system that utilizes a graphical
user interface and primarily focuses on security through user recognition and
authorization. The face model uses MTCNN and FaceNet to verify the user, and
our LSTM-CNN architecture for gesture recognition, achieving an accuracy of 95%
with five classes of gestures. The prototype developed through our research has
successfully executed context-dependent tasks like save, print, control
video-player operations and exit, and context-free operating system tasks like
sleep, shut-down, and unlock intuitively. Our application and dataset are
available as open source.
- Abstract(参考訳): マウスやキーボードのような物理的インタラクティブなデバイスを使用することで、人間と機械の相互作用を阻害し、パンデミック時の表面接触の確率を高める。
既存のジェスチャー認識システムはユーザ認証を持っておらず、信頼できない。
現在のジェスチャー認識技術における静的ジェスチャーは、長い適応期間を導入し、ユーザの互換性を低下させる。
当社の技術は、ユーザ認識と安全性に重点を置いている。
タスク操作には有意義で関連するジェスチャーを使用し、結果としてユーザエクスペリエンスが向上します。
本稿では,グラフィカルなユーザインタフェースを活用し,ユーザ認識と認証によるセキュリティを重視した,堅牢で顔認証可能なジェスチャー認識システムを設計することを目的とする。
ユーザ認証にはmtcnnとfacenetを使用し,ジェスチャー認識にはlstm-cnnアーキテクチャを用い,ジェスチャの5つのクラスで95%の精度を実現している。
われわれの研究で開発されたプロトタイプは、保存、印刷、ビデオプレーヤーの操作と終了の制御、そしてスリープ、シャットダウン、アンロックといったコンテキストフリーなオペレーティングシステムタスクを直感的に実行した。
私たちのアプリケーションとデータセットはオープンソースとして利用可能です。
関連論文リスト
- Dynamic Hand Gesture-Featured Human Motor Adaptation in Tool Delivery
using Voice Recognition [5.13619372598999]
本稿では,革新的なロボット協調フレームワークを提案する。
手の動きや動的動きの認識、音声認識、切り替え可能な制御適応戦略をシームレスに統合する。
ハンドジェスチャ認識における優れた性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-09-20T14:51:09Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Real-Time Gesture Recognition with Virtual Glove Markers [1.8352113484137629]
ジェスチャー認識アプリケーションのためのリアルタイムコンピュータビジョンに基づくヒューマンコンピュータインタラクションツールを提案する。
このシステムは、テレプレゼンスとリハビリテーションによるソーシャルインタラクションを含むリアルタイムアプリケーションに有効である。
論文 参考訳(メタデータ) (2022-07-06T14:56:08Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Snapture -- A Novel Neural Architecture for Combined Static and Dynamic
Hand Gesture Recognition [19.320551882950706]
そこで本研究では,新しいハイブリットハンドジェスチャ認識システムを提案する。
我々のアーキテクチャは静的なジェスチャーと動的ジェスチャーの両方を学ぶことができる。
本研究は,ロボットとの非言語コミュニケーションのためのジェスチャー認識研究と機械学習応用の両方に貢献する。
論文 参考訳(メタデータ) (2022-05-28T11:12:38Z) - First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization [112.40598205054994]
我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
論文 参考訳(メタデータ) (2022-05-24T21:57:18Z) - ASHA: Assistive Teleoperation via Human-in-the-Loop Reinforcement
Learning [91.58711082348293]
オンラインユーザからのフィードバックからシステムのパフォーマンスに関する強化学習は、この問題に対する自然な解決策である。
このアプローチでは、特にフィードバックが不足している場合には、ループ内の大量のトレーニングデータが必要になる傾向があります。
疎いユーザフィードバックから効率的に学習する階層型ソリューションを提案する。
論文 参考訳(メタデータ) (2022-02-05T02:01:19Z) - Gestop : Customizable Gesture Control of Computer Systems [0.3553493344868413]
Gestopはデモからジェスチャーを検出することを学習するフレームワークで、エンドユーザがカスタマイズできる。
ユーザはジェスチャーを使って、RGBのカメラしか持たないコンピュータとリアルタイムで対話できる。
論文 参考訳(メタデータ) (2020-10-25T19:13:01Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z) - An adversarial learning framework for preserving users' anonymity in
face-based emotion recognition [6.9581841997309475]
本稿では,反復的手順で学習した畳み込みニューラルネットワーク(CNN)アーキテクチャに依存する逆学習フレームワークを提案する。
その結果、提案手法は、感情認識の精度を保ち、顔認証の劣化を抑えるための畳み込み変換を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-01-16T22:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。