論文の概要: Attention! A Lightweight 2D Hand Pose Estimation Approach
- arxiv url: http://arxiv.org/abs/2001.08047v2
- Date: Sun, 31 May 2020 01:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:33:01.463142
- Title: Attention! A Lightweight 2D Hand Pose Estimation Approach
- Title(参考訳): 注意!
軽量2次元手のポーズ推定手法
- Authors: Nicholas Santavas, Ioannis Kansizoglou, Loukas Bampis, Evangelos
Karakasis and Antonios Gasteratos
- Abstract要約: 視覚に基づくヒューマンポーズ推定はヒューマン・コンピュータ・インタラクション(HCI)の非侵襲的技術である
本稿では、組み込みシステムにデプロイ可能な自己保持モジュールで強化された、新しい畳み込みニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 2.250416662984021
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Vision based human pose estimation is an non-invasive technology for
Human-Computer Interaction (HCI). Direct use of the hand as an input device
provides an attractive interaction method, with no need for specialized sensing
equipment, such as exoskeletons, gloves etc, but a camera. Traditionally, HCI
is employed in various applications spreading in areas including manufacturing,
surgery, entertainment industry and architecture, to mention a few. Deployment
of vision based human pose estimation algorithms can give a breath of
innovation to these applications. In this letter, we present a novel
Convolutional Neural Network architecture, reinforced with a Self-Attention
module that it can be deployed on an embedded system, due to its lightweight
nature, with just 1.9 Million parameters. The source code and qualitative
results are publicly available.
- Abstract(参考訳): 視覚に基づく人間のポーズ推定は、ヒューマン・コンピュータ・インタラクション(HCI)の非侵襲的技術である。
入力装置としての直接的な手の使用は、外骨格、手袋、カメラなどの特殊なセンシング機器を必要とせず、魅力的な相互作用手段を提供する。
伝統的に、HCIは製造業、手術、エンターテイメント産業、建築など様々な分野で応用されている。
視覚に基づく人間のポーズ推定アルゴリズムの展開は、これらのアプリケーションに革新をもたらす可能性がある。
本稿では,新たな畳み込みニューラルネットワークアーキテクチャを提案する。その軽量な性質とパラメータがわずか1.9万であるため,組み込みシステムにデプロイ可能なセルフアテンションモジュールで強化されたものだ。
ソースコードと質的な結果が公開されている。
関連論文リスト
- EgoHand: Ego-centric Hand Pose Estimation and Gesture Recognition with Head-mounted Millimeter-wave Radar and IMUs [15.644891766887255]
ボトム対応のVRカメラは、個人の体の一部や周囲などの機密情報を暴露する危険性がある。
手のジェスチャー認識のためのミリ波レーダとIMUを統合するシステムであるEgoHandを紹介する。
実験では、EgoHandは90.8%の精度で手の動きを検出することができる。
論文 参考訳(メタデータ) (2025-01-23T16:25:08Z) - Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Decomposed Vector-Quantized Variational Autoencoder for Human Grasp Generation [27.206656215734295]
本稿では,DVQ-VAE(Decomposed Vector-Quantized Variational Autoencoder)を提案する。
部分認識の分解アーキテクチャは、手とオブジェクトの各コンポーネント間のインタラクションをより正確に管理するのに役立つ。
提案モデルでは,4つのベンチマークにおいて,最先端の手法と比較して,品質指標の14.1%の相対的な改善を実現した。
論文 参考訳(メタデータ) (2024-07-19T06:41:16Z) - Agile gesture recognition for low-power applications: customisation for generalisation [41.728933551492275]
自動手ジェスチャー認識は、長い間AIコミュニティの焦点だった。
低消費電力センサデバイスで動作するジェスチャー認識技術への需要が高まっている。
本研究では,適応的およびアジャイル的誤り訂正を用いたパターン認識システムのための新しい手法を提示する。
論文 参考訳(メタデータ) (2024-03-12T19:34:18Z) - Appearance-based gaze estimation enhanced with synthetic images using
deep neural networks [0.0]
人工ニューラルネットワークを用いて、別々に収穫された目の視線を推定するシステムを構築した。
提案手法は特別なハードウェアや赤外線フィルタを必要としない。
MetaHumanツールを使用して、57,000人以上の顔の大規模な合成データセットも生成した。
論文 参考訳(メタデータ) (2023-11-23T19:44:50Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - A compact sequence encoding scheme for online human activity recognition
in HRI applications [0.8397702677752039]
本稿では,時間的動作を効率よくコンパクトな表現に変換する新しいアクションシーケンス符号化方式を提案する。
この表現は、軽量畳み込みニューラルネットワークの入力として使用することができる。
実験により、提案したパイプラインは、堅牢なエンドツーエンドのオンラインアクション認識スキームを提供できることが示された。
論文 参考訳(メタデータ) (2020-12-01T22:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。