論文の概要: Computer Vision-Driven Gesture Recognition: Toward Natural and Intuitive Human-Computer
- arxiv url: http://arxiv.org/abs/2412.18321v1
- Date: Tue, 24 Dec 2024 10:13:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-25 15:54:56.709444
- Title: Computer Vision-Driven Gesture Recognition: Toward Natural and Intuitive Human-Computer
- Title(参考訳): コンピュータビジョン駆動型ジェスチャー認識 : 自然・直感的ヒューマンコンピュータを目指して
- Authors: Fenghua Shao, Tong Zhang, Shang Gao, Qi Sun, Liuqingqing Yang,
- Abstract要約: 本研究では,コンピュータビジョンに基づく自然なジェスチャー認識の人間-コンピュータインタラクションへの応用について検討する。
手のひらと各指関節を接続することにより、手の動的かつ静的なジェスチャーモデルを形成する。
実験により,様々なジェスチャーを効果的に認識し,高い認識精度とリアルタイム応答能力を維持できることが示唆された。
- 参考スコア(独自算出の注目度): 21.70275919660522
- License:
- Abstract: This study mainly explores the application of natural gesture recognition based on computer vision in human-computer interaction, aiming to improve the fluency and naturalness of human-computer interaction through gesture recognition technology. In the fields of virtual reality, augmented reality and smart home, traditional input methods have gradually failed to meet the needs of users for interactive experience. As an intuitive and convenient interaction method, gestures have received more and more attention. This paper proposes a gesture recognition method based on a three-dimensional hand skeleton model. By simulating the three-dimensional spatial distribution of hand joints, a simplified hand skeleton structure is constructed. By connecting the palm and each finger joint, a dynamic and static gesture model of the hand is formed, which further improves the accuracy and efficiency of gesture recognition. Experimental results show that this method can effectively recognize various gestures and maintain high recognition accuracy and real-time response capabilities in different environments. In addition, combined with multimodal technologies such as eye tracking, the intelligence level of the gesture recognition system can be further improved, bringing a richer and more intuitive user experience. In the future, with the continuous development of computer vision, deep learning and multimodal interaction technology, natural interaction based on gestures will play an important role in a wider range of application scenarios and promote revolutionary progress in human-computer interaction.
- Abstract(参考訳): 本研究では,人-コンピュータインタラクションにおけるコンピュータビジョンに基づく自然なジェスチャー認識の応用を主に検討し,ジェスチャー認識技術による人-コンピュータインタラクションの流速と自然性の向上を目的としている。
仮想現実、拡張現実、スマートホームの分野では、従来の入力方式は、インタラクティブな体験のためのユーザーのニーズを徐々に満たさなかった。
直感的で便利なインタラクション手法として、ジェスチャーはますます注目を集めている。
本稿では3次元手関節モデルに基づくジェスチャー認識手法を提案する。
手関節の3次元空間分布をシミュレートすることにより,簡易な手骨構造を構築する。
手のひらと各指関節を接続することにより、手の動的および静的なジェスチャーモデルを形成し、ジェスチャー認識の精度と効率をさらに向上させる。
実験により,様々なジェスチャーを効果的に認識し,異なる環境下での認識精度とリアルタイム応答能力を維持できることが示唆された。
さらに、アイトラッキングなどのマルチモーダル技術と組み合わせることで、ジェスチャー認識システムのインテリジェンスレベルをさらに改善し、よりリッチで直感的なユーザエクスペリエンスを実現することができる。
将来的には、コンピュータビジョン、ディープラーニング、マルチモーダルインタラクション技術の継続的な発展に伴い、ジェスチャーに基づく自然なインタラクションは、幅広いアプリケーションシナリオにおいて重要な役割を果たすようになり、人間とコンピュータのインタラクションにおける革新的な進歩を促進するだろう。
関連論文リスト
- Interpreting Hand gestures using Object Detection and Digits Classification [0.0]
本研究の目的は,数字を表す手振りを正確に認識し,分類できる堅牢なシステムを開発することである。
提案手法では、手動画像のデータセットの収集、画像の事前処理と拡張、関連する特徴の抽出、機械学習モデルのトレーニングなどを行う。
論文 参考訳(メタデータ) (2024-07-15T16:53:04Z) - Advancements in Tactile Hand Gesture Recognition for Enhanced Human-Machine Interaction [1.6385815610837167]
本研究は,直感的物理的ヒューマン・マシーンインタラクション(HRI/HVI)の強化への関心が高まっている。
導電性繊維で構築した大面積触覚触覚インタフェース(タッチインターフェース)に対して,手動作認識のアプローチを総合的に評価した。
論文 参考訳(メタデータ) (2024-05-27T10:44:27Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Real-Time Gesture Recognition with Virtual Glove Markers [1.8352113484137629]
ジェスチャー認識アプリケーションのためのリアルタイムコンピュータビジョンに基づくヒューマンコンピュータインタラクションツールを提案する。
このシステムは、テレプレゼンスとリハビリテーションによるソーシャルインタラクションを含むリアルタイムアプリケーションに有効である。
論文 参考訳(メタデータ) (2022-07-06T14:56:08Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Snapture -- A Novel Neural Architecture for Combined Static and Dynamic
Hand Gesture Recognition [19.320551882950706]
そこで本研究では,新しいハイブリットハンドジェスチャ認識システムを提案する。
我々のアーキテクチャは静的なジェスチャーと動的ジェスチャーの両方を学ぶことができる。
本研究は,ロボットとの非言語コミュニケーションのためのジェスチャー認識研究と機械学習応用の両方に貢献する。
論文 参考訳(メタデータ) (2022-05-28T11:12:38Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - 3D dynamic hand gestures recognition using the Leap Motion sensor and
convolutional neural networks [0.0]
本稿では,Leap Motionセンサーを用いて取得した非静的なジェスチャーの認識方法を提案する。
取得したジェスチャー情報をカラー画像に変換し、ジェスチャー中の手関節位置の変化を平面に投影する。
ジェスチャーの分類はDeep Convolutional Neural Network (CNN)を用いて行われる。
論文 参考訳(メタデータ) (2020-03-03T11:05:35Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。