論文の概要: Enhancing Hand Palm Motion Gesture Recognition by Eliminating Reference Frame Bias via Frame-Invariant Similarity Measures
- arxiv url: http://arxiv.org/abs/2503.11352v1
- Date: Fri, 14 Mar 2025 12:40:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:05:34.171255
- Title: Enhancing Hand Palm Motion Gesture Recognition by Eliminating Reference Frame Bias via Frame-Invariant Similarity Measures
- Title(参考訳): フレーム不変類似度法による参照フレームバイアスの除去による手掌動作認識の強化
- Authors: Arno Verduyn, Maxim Vochten, Joris De Schutter,
- Abstract要約: 記録されたハンドパーム動作(HPM)ジェスチャの新しいデータセットを提案する。
このデータセットの動作ジェスチャーは、特定の参照フレームや方向の手がかりに依存せずに区別できるように設計されている。
複数の不変トラジェクトリ記述子をベンチマークして、その性能が新しいHPMデータセットにどのように一般化するかを評価する。
最良のスコアリングアプローチは、リアルタイム概念証明を開発することで、オンライン認識のために検証される。
- 参考スコア(独自算出の注目度): 0.9421843976231371
- License:
- Abstract: The ability of robots to recognize human gestures facilitates a natural and accessible human-robot collaboration. However, most work in gesture recognition remains rooted in reference frame-dependent representations. This poses a challenge when reference frames vary due to different work cell layouts, imprecise frame calibrations, or other environmental changes. This paper investigated the use of invariant trajectory descriptors for robust hand palm motion gesture recognition under reference frame changes. First, a novel dataset of recorded Hand Palm Motion (HPM) gestures is introduced. The motion gestures in this dataset were specifically designed to be distinguishable without dependence on specific reference frames or directional cues. Afterwards, multiple invariant trajectory descriptor approaches were benchmarked to assess how their performances generalize to this novel HPM dataset. After this offline benchmarking, the best scoring approach is validated for online recognition by developing a real-time Proof of Concept (PoC). In this PoC, hand palm motion gestures were used to control the real-time movement of a manipulator arm. The PoC demonstrated a high recognition reliability in real-time operation, achieving an $F_1$-score of 92.3%. This work demonstrates the effectiveness of the invariant descriptor approach as a standalone solution. Moreover, we believe that the invariant descriptor approach can also be utilized within other state-of-the-art pattern recognition and learning systems to improve their robustness against reference frame variations.
- Abstract(参考訳): ロボットが人間のジェスチャーを認識できることは、自然でアクセスしやすい人間とロボットのコラボレーションを促進する。
しかし、ジェスチャー認識におけるほとんどの研究は、参照フレーム依存表現に根ざしている。
これは、異なるワークセルレイアウト、不正確なフレームキャリブレーション、その他の環境変化のために参照フレームが異なる場合の課題である。
そこで本研究では,手掌動作認識のための不変軌跡記述子を用いた基準フレーム変更時の手掌動作認識について検討した。
まず、記録されたハンドパームモーション(HPM)ジェスチャの新しいデータセットを紹介する。
このデータセットの動作ジェスチャーは、特定の参照フレームや方向の手がかりに依存せずに区別できるように設計されている。
その後、複数の不変トラジェクトリ記述子アプローチをベンチマークして、その性能が新しいHPMデータセットにどのように一般化するかを評価する。
このオフラインベンチマークの後、リアルタイム概念証明(PoC)を開発することで、オンライン認識において最良のスコアリングアプローチが検証される。
このPoCでは、手掌の動きのジェスチャーを用いて、マニピュレータアームのリアルタイム動作を制御した。
PoCはリアルタイム操作において高い信頼性を示し、92.3%のF_1$スコアを達成した。
この研究は、独立解としての不変記述子アプローチの有効性を示す。
さらに,この不変記述子アプローチは,他の最先端パターン認識学習システムでも利用でき,参照フレームの変動に対する堅牢性を向上させることができると考えている。
関連論文リスト
- HandDAGT: A Denoising Adaptive Graph Transformer for 3D Hand Pose Estimation [15.606904161622017]
本稿では,ハンドポーズ推定のためのDenoising Adaptive Graph Transformer(HandDAGT)を提案する。
特定のキーポイントを推定するための運動対応と局所幾何学的特徴の寄与を適応的に評価する新しい注意機構が組み込まれている。
実験の結果,提案手法は4つの手ポーズベンチマークデータセットにおいて,既存の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2024-07-30T04:53:35Z) - Local Spherical Harmonics Improve Skeleton-Based Hand Action Recognition [17.62840662799232]
本研究では, 局所球面高調波と相対角埋め込みを用いた手動作認識のための新しい手動作表現法を提案する。
Spherical Harmonicsの使用は、オブジェクト間の差異や視点の変化に対して手の動き認識をさらに堅牢にする回転不変表現を生成する。
論文 参考訳(メタデータ) (2023-08-21T08:17:42Z) - Deformer: Dynamic Fusion Transformer for Robust Hand Pose Estimation [59.3035531612715]
既存の方法では、手のこもりが強かったり、ぼやけたりすると、手のポーズが難しい場合が多い。
ビデオでは、手の動きによって、片方のフレームに隠されたり、ぼやけたりして、手のさまざまな部分を観察することができる。
画像内の手の部分間の関係を暗黙的に推論するフレームワークであるDeformerを提案する。
論文 参考訳(メタデータ) (2023-03-09T02:24:30Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Hierarchical Temporal Transformer for 3D Hand Pose Estimation and Action
Recognition from Egocentric RGB Videos [50.74218823358754]
我々は,時間的情報を利用してロバストな推定を行うトランスフォーマーベースのフレームワークを開発した。
2つのカスケード変換器エンコーダを用いたネットワーク階層を構築し,まず手振り推定の短期的キューを利用する。
提案手法は,FPHAとH2Oの2つの個人手動作ベンチマークにおいて競合する結果を得る。
論文 参考訳(メタデータ) (2022-09-20T05:52:54Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。