論文の概要: GRLib: An Open-Source Hand Gesture Detection and Recognition Python
Library
- arxiv url: http://arxiv.org/abs/2310.14919v1
- Date: Mon, 23 Oct 2023 13:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 19:58:05.445675
- Title: GRLib: An Open-Source Hand Gesture Detection and Recognition Python
Library
- Title(参考訳): GRLib: Pythonライブラリのハンドジェスチャ検出と認識のためのオープンソースライブラリ
- Authors: Jan Warchocki, Mikhail Vlasenko, Yke Bauke Eisma
- Abstract要約: 我々は、静的および動的ハンドジェスチャを検出および分類できるオープンソースのPythonライブラリ、GRLibを提示する。
このライブラリは、分類の堅牢性を改善するために、既存のデータに基づいてトレーニングすることができる。
このライブラリは、別の公開HGRシステムであるMediaPipe Solutionsより優れていることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hand gesture recognition systems provide a natural way for humans to interact
with computer systems. Although various algorithms have been designed for this
task, a host of external conditions, such as poor lighting or distance from the
camera, make it difficult to create an algorithm that performs well across a
range of environments. In this work, we present GRLib: an open-source Python
library able to detect and classify static and dynamic hand gestures. Moreover,
the library can be trained on existing data for improved classification
robustness. The proposed solution utilizes a feed from an RGB camera. The
retrieved frames are then subjected to data augmentation and passed on to
MediaPipe Hands to perform hand landmark detection. The landmarks are then
classified into their respective gesture class. The library supports dynamic
hand gestures through trajectories and keyframe extraction. It was found that
the library outperforms another publicly available HGR system - MediaPipe
Solutions, on three diverse, real-world datasets. The library is available at
https://github.com/mikhail-vlasenko/grlib and can be installed with pip.
- Abstract(参考訳): ハンドジェスチャー認識システムは、人間がコンピュータシステムと対話する自然な方法を提供する。
このタスクのために様々なアルゴリズムが設計されているが、照明不足やカメラからの距離など、様々な外部条件が伴うため、様々な環境でうまく機能するアルゴリズムを作成するのが困難である。
本稿では,静的および動的ハンドジェスチャの検出と分類が可能なオープンソースのPythonライブラリであるGRLibを紹介する。
さらに、ライブラリを既存のデータに基づいてトレーニングすることで、分類の堅牢性が向上する。
提案手法はRGBカメラからのフィードを利用する。
取得したフレームはデータ拡張を受け、MediaPipe Handsに渡されて、手書きのランドマーク検出を行う。
ランドマークはそれぞれのジェスチャクラスに分類される。
このライブラリは、トラジェクトリとキーフレーム抽出による動的ハンドジェスチャをサポートする。
このライブラリは、3つの多様な実世界のデータセット上で、別の公開HGRシステムであるMediaPipe Solutionsよりも優れていることがわかった。
ライブラリはhttps://github.com/mikhail-vlasenko/grlibで入手できる。
関連論文リスト
- Comgra: A Tool for Analyzing and Debugging Neural Networks [35.89730807984949]
PyTorchで使用するオープンソースのpythonライブラリであるcomgraを紹介します。
Comgraはモデルの内部アクティベーションに関するデータを抽出し、GUIで整理する。
要約統計と個々のデータポイントの両方を示し、トレーニングの初期段階と後期を比較し、関心のある個々のサンプルに注目し、ネットワークを通しての勾配の流れを可視化する。
論文 参考訳(メタデータ) (2024-07-31T14:57:23Z) - Causal-learn: Causal Discovery in Python [53.17423883919072]
因果発見は、観測データから因果関係を明らかにすることを目的としている。
$textitcausal-learn$は因果発見のためのオープンソースのPythonライブラリである。
論文 参考訳(メタデータ) (2023-07-31T05:00:35Z) - torchgfn: A PyTorch GFlowNet library [56.071033896777784]
torchgfnはPyTorchライブラリで、このニーズに対処することを目指している。
環境のためのシンプルなAPIと、サンプルと損失のための有用な抽象化を提供する。
論文 参考訳(メタデータ) (2023-05-24T00:20:59Z) - HPointLoc: Point-based Indoor Place Recognition using Synthetic RGB-D
Images [58.720142291102135]
本稿では,屋内環境における視覚的位置認識能力の探索を目的とした,HPointLocという新しいデータセットを提案する。
データセットは人気のあるHabitatシミュレータに基づいており、独自のセンサーデータとオープンデータセットの両方を使用して屋内シーンを生成することができる。
論文 参考訳(メタデータ) (2022-12-30T12:20:56Z) - Frouros: A Python library for drift detection in machine learning
systems [0.0]
Frourosはオープンソースのライブラリで、機械学習システムのドリフトを検出する。
これは、ドリフト検出のための古典的アルゴリズムとより最近のアルゴリズムの組み合わせを提供する。
論文 参考訳(メタデータ) (2022-08-14T15:25:41Z) - PyGOD: A Python Library for Graph Outlier Detection [56.33769221859135]
PyGODは、グラフデータの外れ値を検出するオープンソースライブラリである。
外れ値検出のための主要なグラフベースのメソッドを幅広くサポートしています。
PyGODはBSD 2-Clauseライセンスの下でhttps://pygod.orgとPython Package Index (PyPI)でリリースされている。
論文 参考訳(メタデータ) (2022-04-26T06:15:21Z) - Python for Smarter Cities: Comparison of Python libraries for static and
interactive visualisations of large vector data [0.0]
Pythonは簡潔で自然な構文を持ち、コンピュータサイエンスの背景を持たない市町村のスタッフにとって参入障壁は低い。
本研究では,大規模ベクトルデータセットの可視化生成に関して,Pythonエコシステムにおける顕著かつ活発に開発された可視化ライブラリを評価する。
短いリストのライブラリはすべて、小さなデータセットと大きなデータセットの両方のサンプルマップ製品を生成することができた。
論文 参考訳(メタデータ) (2022-02-26T10:23:29Z) - GEMA: An open-source Python library for self-organizing-maps [1.713291434132985]
本稿では,自己組織化マップ(Self-Organizing-Maps)と呼ばれるニューラルネットワークモデルを扱うために開発された,GEMAと呼ばれるオープンソースのPythonライブラリについて述べる。
ライブラリは特定のユースケースで評価され、正確な結果が得られる。
論文 参考訳(メタデータ) (2022-02-17T10:49:01Z) - PyTorchVideo: A Deep Learning Library for Video Understanding [71.89124881732015]
PyTorchVideoは、ビデオ理解タスクのためのオープンソースのディープラーニングライブラリである。
マルチモーダルデータローディング、変換、モデルを含む、ビデオ理解ツールのフルスタックをカバーする。
ライブラリはPyTorchをベースにしており、任意のトレーニングフレームワークで使用することができる。
論文 参考訳(メタデータ) (2021-11-18T18:59:58Z) - Solo-learn: A Library of Self-supervised Methods for Visual
Representation Learning [83.02597612195966]
solo-learnは視覚表現学習のための自己指導型のメソッドのライブラリである。
Pythonで実装され、PytorchとPytorch Lightningを使用して、このライブラリは研究と業界のニーズの両方に適合する。
論文 参考訳(メタデータ) (2021-08-03T22:19:55Z) - giotto-tda: A Topological Data Analysis Toolkit for Machine Learning and
Data Exploration [4.8353738137338755]
giotto-tdaは、高性能なトポロジカルデータ分析と機械学習を統合するPythonライブラリである。
このライブラリの様々な種類のデータを扱う能力は、幅広い事前処理技術に根ざしている。
論文 参考訳(メタデータ) (2020-04-06T10:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。