論文の概要: Pen Spinning Hand Movement Analysis Using MediaPipe Hands
- arxiv url: http://arxiv.org/abs/2108.10716v1
- Date: Tue, 24 Aug 2021 13:27:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 15:58:37.651236
- Title: Pen Spinning Hand Movement Analysis Using MediaPipe Hands
- Title(参考訳): メディアパイプハンドを用いたペン紡ぐ手の動き解析
- Authors: Tung-Lin Wu, Taishi Senda
- Abstract要約: 本研究の目的は,ペン回転競技の性能を客観的に評価するシステムを構築することである。
評価に客観的な数値を用いたプロセスの完全自動化を目指していた。
各フレームにおける手の座標の標準偏差とL2ノルムを計算することにより,手の動きの上下を可視化することができた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We challenged to get data about hand movement in pen spinning using MediaPipe
Hands and OpenCV. The purpose is to create a system that can be used to
objectively evaluate the performance of pen spinning competitions. Evaluation
of execution, smoothness, and control in competitions are quite difficult and
often with subjectivity. Therefore, we aimed to fully automate the process by
using objective numerical values for evaluation. Uncertainty still exists in
MediaPipe's skeletal recognition, and it tends to be more difficult to
recognize in brightly colored backgrounds. However, we could improve the
recognition accuracy by changing the saturation and brightness in the program.
Furthermore, automatic detection and adjustment of brightness is now possible.
As the next step to systematize the evaluation of pen spinning using objective
numerical values, we adopted "hand movements". We were able to visualize the
ups and downs of the hand movements by calculating the standard deviation and
L2 norm of the hand's coordinates in each frame. The results of hand movements
are quite accurate, and we feel that it is a big step toward our goal. In the
future, we would like to make great efforts to fully automate the grading of
pen spinning.
- Abstract(参考訳): MediaPipe Hands と OpenCV を用いたペン回転時の手の動きに関するデータ取得に挑戦した。
本研究の目的は,ペン回転競技の性能を客観的に評価するシステムを構築することである。
競争における実行、滑らかさ、制御の評価は非常に困難であり、しばしば主観性を伴う。
そこで本稿では,客観的数値を用いて評価を完全自動化することを目的とした。
不確かさは依然としてMediaPipeの骨格認識に存在し、鮮やかな色の背景では認識が難しい傾向にある。
しかし,プログラムの彩度や輝度を変化させることで,認識精度を向上させることができた。
さらに、明るさの自動検出と調整も可能になった。
対象数値を用いてペン回転の評価を体系化する次のステップとして,手の動きを採用した。
各フレームにおける手の座標の標準偏差とL2ノルムを計算することにより,手の動きの上下を可視化することができた。
手の動きの結果は非常に正確で、目標に向かって大きな一歩だと感じています。
将来的には、ペン紡績の仕上がりを完全に自動化していきたいと考えています。
関連論文リスト
- In My Perspective, In My Hands: Accurate Egocentric 2D Hand Pose and Action Recognition [1.4732811715354455]
アクション認識は、エゴセントリックなビデオ理解に不可欠であり、ユーザの努力なしに日々の生活活動(ADL)の自動的かつ継続的なモニタリングを可能にする。
既存の文献では、計算集約的な深度推定ネットワークを必要とする3Dハンドポーズ入力や、不快な深度センサーを装着することに焦点を当てている。
EffHandEgoNetとEffHandEgoNetの2つの新しい手法を導入する。
論文 参考訳(メタデータ) (2024-04-14T17:33:33Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Deformer: Dynamic Fusion Transformer for Robust Hand Pose Estimation [59.3035531612715]
既存の方法では、手のこもりが強かったり、ぼやけたりすると、手のポーズが難しい場合が多い。
ビデオでは、手の動きによって、片方のフレームに隠されたり、ぼやけたりして、手のさまざまな部分を観察することができる。
画像内の手の部分間の関係を暗黙的に推論するフレームワークであるDeformerを提案する。
論文 参考訳(メタデータ) (2023-03-09T02:24:30Z) - On-device Real-time Hand Gesture Recognition [1.4658400971135652]
本稿では,1台のRGBカメラから予め定義された静的ジェスチャーを検知するデバイス上でのリアルタイム手ジェスチャー認識(HGR)システムを提案する。
ハンドスケルトントラッカーの基礎としてMediaPipe Handsを使用し、キーポイント精度を改善し、世界距離空間における3次元キーポイントの推定を追加する。
論文 参考訳(メタデータ) (2021-10-29T18:33:25Z) - Hand gesture detection in tests performed by older adults [9.00837522898458]
我々は、年齢に伴う手の動きの特徴を分析するオンラインテストを開発している。
手の動きの特徴を得るために、参加者は自分のコンピュータカメラを使って様々な手の動きを行うよう依頼される。
特に高齢者を対象に,高品質な手動動画データを収集することは困難である。
論文 参考訳(メタデータ) (2021-10-27T14:29:01Z) - Learning to Disambiguate Strongly Interacting Hands via Probabilistic
Per-pixel Part Segmentation [84.28064034301445]
自己相似性と、それぞれの手にピクセル観察を割り当てるあいまいさは、最終的な3Dポーズエラーの大きな原因である。
1つの単眼画像から2つの手の3次元ポーズを推定する新しい手法であるDIGITを提案する。
提案手法は,InterHand2.6Mデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2021-07-01T13:28:02Z) - Temporally Guided Articulated Hand Pose Tracking in Surgical Videos [22.752654546694334]
アーティキュレートされた手ポーズ追跡は、多くのアプリケーションで使用可能な可能性を秘めている未発見の問題である。
提案する手ポーズ推定モデルであるCondPoseは,その予測に先立ってポーズを組み込むことで,検出と追跡の精度を向上させる。
論文 参考訳(メタデータ) (2021-01-12T03:44:04Z) - Measuring Generalisation to Unseen Viewpoints, Articulations, Shapes and
Objects for 3D Hand Pose Estimation under Hand-Object Interaction [137.28465645405655]
HANDS'19は、現在の3Dハンドポーズ推定器(HPE)がトレーニングセットのポーズを補間し、外挿する能力を評価するための課題である。
本研究では,最先端手法の精度が低下し,トレーニングセットから外れたポーズでほとんど失敗することを示す。
論文 参考訳(メタデータ) (2020-03-30T19:28:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。