論文の概要: SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild
- arxiv url: http://arxiv.org/abs/2106.10980v1
- Date: Mon, 21 Jun 2021 10:57:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:47:35.198419
- Title: SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild
- Title(参考訳): SHREC 2021:野生における骨格に基づく手指ジェスチャー認識の追跡
- Authors: Ariel Caputo, Andrea Giachetti, Simone Soso, Deborah Pintani, Andrea
D'Eusanio, Stefano Pini, Guido Borghi, Alessandro Simoni, Roberto Vezzani,
Rita Cucchiara, Andrea Ranieri, Franca Giannini, Katia Lupinetti, Marina
Monti, Mehran Maghoumi, Joseph J. LaViola Jr, Minh-Quan Le, Hai-Dang Nguyen,
Minh-Triet Tran
- Abstract要約: 手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
- 参考スコア(独自算出の注目度): 62.450907796261646
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Gesture recognition is a fundamental tool to enable novel interaction
paradigms in a variety of application scenarios like Mixed Reality
environments, touchless public kiosks, entertainment systems, and more.
Recognition of hand gestures can be nowadays performed directly from the stream
of hand skeletons estimated by software provided by low-cost trackers
(Ultraleap) and MR headsets (Hololens, Oculus Quest) or by video processing
software modules (e.g. Google Mediapipe). Despite the recent advancements in
gesture and action recognition from skeletons, it is unclear how well the
current state-of-the-art techniques can perform in a real-world scenario for
the recognition of a wide set of heterogeneous gestures, as many benchmarks do
not test online recognition and use limited dictionaries. This motivated the
proposal of the SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in
the Wild. For this contest, we created a novel dataset with heterogeneous
gestures featuring different types and duration. These gestures have to be
found inside sequences in an online recognition scenario. This paper presents
the result of the contest, showing the performances of the techniques proposed
by four research groups on the challenging task compared with a simple baseline
method.
- Abstract(参考訳): ジェスチャー認識は、複合現実環境、タッチレス公共キオスク、エンタテインメントシステムなど、さまざまなアプリケーションシナリオにおける新しいインタラクションパラダイムを可能にする基本的なツールである。
手の動きの認識は、ローコストトラッカー(Ultraleap)とMRヘッドセット(Hololens、Oculus Quest)またはビデオ処理ソフトウェアモジュール(例)によって提供されるソフトウェアによって推定される手骨格のストリームから直接行うことができる。
Google Mediapipe)。
最近のスケルトンによるジェスチャーとアクション認識の進歩にもかかわらず、多くのベンチマークがオンライン認識をテストせず、限定的な辞書を使用するため、様々なジェスチャを広く認識するための実世界シナリオにおいて、現在の最先端技術がいかにうまく機能するかは不明である。
これはSHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wildの提案の動機となった。
このコンテストのために、異なるタイプと期間を含む異種ジェスチャーを用いた新しいデータセットを作成しました。
これらのジェスチャーは、オンライン認識シナリオ内のシーケンス内で見つける必要がある。
本稿では,4つの研究グループによって提案されている簡単なベースライン手法と比較して,課題課題を提示する手法の性能を示す。
関連論文リスト
- Zero-Shot Underwater Gesture Recognition [3.4078654008228924]
手のジェスチャー認識は、人間が非言語で機械と対話することを可能にする。
近年,CADDIANと呼ばれるジェスチャー言語がダイバー向けに考案され,高精度なジェスチャー認識のための教師あり学習法が適用されている。
本研究は,ゼロショット水中ジェスチャー認識 (ZSUGR) の必要性を提唱するものである。本研究の目的は,少数のクラスからのジェスチャーの視覚的サンプルを用いてモデルを訓練し,得られた知識をテスト時に伝達し,意味的に類似しないジェスチャークラスも認識することである。
論文 参考訳(メタデータ) (2024-07-19T08:16:46Z) - Part-aware Unified Representation of Language and Skeleton for Zero-shot Action Recognition [57.97930719585095]
本稿では,PURLS(Part-aware Unified Representation between Language and Skeleton)を紹介する。
本手法はスケルトン/言語のバックボーンと3つの大規模データセットを用いて評価する。
その結果、PURLSの普遍性と優れた性能を示し、以前のスケルトンベースのソリューションと他のドメインからの標準ベースラインを上回った。
論文 参考訳(メタデータ) (2024-06-19T08:22:32Z) - SHREC 2022 Track on Online Detection of Heterogeneous Gestures [11.447098172408111]
本稿では,3Dハンドポーズのシーケンスからヘテロジニアスなジェスチャーをオンライン認識する方法を評価するために組織されたコンテストの結果について述べる。
データセットは、ジェスチャーが重要でない動きとインターリーブされた手追跡データの連続的なシーケンスを特徴としている。
この評価は、検出性能だけでなく、レイテンシや偽陽性にも基づき、実用的な対話ツールの実現可能性を理解することができる。
論文 参考訳(メタデータ) (2022-07-14T07:24:02Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Snapture -- A Novel Neural Architecture for Combined Static and Dynamic
Hand Gesture Recognition [19.320551882950706]
そこで本研究では,新しいハイブリットハンドジェスチャ認識システムを提案する。
我々のアーキテクチャは静的なジェスチャーと動的ジェスチャーの両方を学ぶことができる。
本研究は,ロボットとの非言語コミュニケーションのためのジェスチャー認識研究と機械学習応用の両方に貢献する。
論文 参考訳(メタデータ) (2022-05-28T11:12:38Z) - Muscle Vision: Real Time Keypoint Based Pose Classification of Physical
Exercises [52.77024349608834]
ビデオから外挿された3D人間のポーズ認識は、リアルタイムソフトウェアアプリケーションを可能にするまで進歩した。
本稿では,ライブビデオフィード上で人間のポーズ認識を行う新しい機械学習パイプラインとWebインターフェースを提案する。
論文 参考訳(メタデータ) (2022-03-23T00:55:07Z) - Sign Language Recognition via Skeleton-Aware Multi-Model Ensemble [71.97020373520922]
手話は一般的に、聴覚障害者やミュート人がコミュニケーションするために使われる。
孤立手話認識(SLR)のためのGlobal Ensemble Model(GEM)を用いた新しいマルチモーダルフレームワークを提案する。
提案するSAM-SLR-v2 フレームワークは極めて有効であり,最先端の性能を高いマージンで達成している。
論文 参考訳(メタデータ) (2021-10-12T16:57:18Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Gesture Recognition from Skeleton Data for Intuitive Human-Machine
Interaction [0.6875312133832077]
本稿では,手工芸品の集合に基づく動的ジェスチャーのセグメント化と分類のためのアプローチを提案する。
ジェスチャー認識方法はスライディングウィンドウを適用し、空間次元と時間次元の両方から情報を抽出する。
最終的に、認識されたジェスチャーは、協調ロボットと対話するために使用される。
論文 参考訳(メタデータ) (2020-08-26T11:28:50Z) - 3D dynamic hand gestures recognition using the Leap Motion sensor and
convolutional neural networks [0.0]
本稿では,Leap Motionセンサーを用いて取得した非静的なジェスチャーの認識方法を提案する。
取得したジェスチャー情報をカラー画像に変換し、ジェスチャー中の手関節位置の変化を平面に投影する。
ジェスチャーの分類はDeep Convolutional Neural Network (CNN)を用いて行われる。
論文 参考訳(メタデータ) (2020-03-03T11:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。