論文の概要: Real-Time Online Skeleton Extraction and Gesture Recognition on Pepper
- arxiv url: http://arxiv.org/abs/2206.11376v1
- Date: Wed, 22 Jun 2022 20:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-25 02:22:17.012238
- Title: Real-Time Online Skeleton Extraction and Gesture Recognition on Pepper
- Title(参考訳): pepperのリアルタイムオンラインスケルトン抽出とジェスチャー認識
- Authors: Axel Lefrant, Jean-Marc Montanier
- Abstract要約: 現在、Pepperロボットで骨格を結合的に抽出し、ジェスチャーを認識するための初めてのリアルタイムシステムである。
Pepperは、深度CNNを実行するための組み込みGPUと、シーン全体のインタラクションをキャプチャする魚眼カメラで拡張されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a multi-stage pipeline for simple gesture recognition. The novelty
of our approach is the association of different technologies, resulting in the
first real-time system as of now to conjointly extract skeletons and recognise
gesture on a Pepper robot. For this task, Pepper has been augmented with an
embedded GPU for running deep CNNs and a fish-eye camera to capture whole scene
interaction. We show in this article that real-case scenarios are challenging,
and the state-of-the-art approaches hardly deal with unknown human gestures. We
present here a way to handle such cases.
- Abstract(参考訳): 簡単なジェスチャー認識のための多段階パイプラインを提案する。
我々のアプローチの目新しさは、異なるテクノロジーの結合であり、現在、ペッパーロボットの骨格を結合的に抽出し、ジェスチャーを認識する最初のリアルタイムシステムとなっている。
このタスクのためにpepperは、ディープcnnを実行する組込みgpuと、シーン全体のインタラクションをキャプチャする魚眼カメラを追加した。
本稿では、実例シナリオは困難であり、最先端のアプローチは未知の人間のジェスチャーにはほとんど対応していないことを示す。
私たちはこのようなケースを扱う方法を提示します。
関連論文リスト
- Holoported Characters: Real-time Free-viewpoint Rendering of Humans from Sparse RGB Cameras [65.54875149514274]
一般のアパレルにおいて,人間俳優の高度にリアルなフリー視点映像をレンダリングするための最初のアプローチを提案する。
提案手法は,動作中のアクターの4つのカメラビューと,各3次元骨格ポーズのみを必要とする。
広い服装の俳優を扱い、さらに細かなダイナミックディテールを再現する。
論文 参考訳(メタデータ) (2023-12-12T16:45:52Z) - Learning to Act from Actionless Videos through Dense Correspondences [87.1243107115642]
本稿では,様々なロボットや環境にまたがる多様なタスクを確実に実行可能なビデオベースのロボットポリシーを構築するためのアプローチを提案する。
本手法は,ロボットの目標を指定するための汎用表現として,状態情報と行動情報の両方を符号化するタスク非依存表現として画像を利用する。
テーブルトップ操作とナビゲーションタスクの学習方針における我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-10-12T17:59:23Z) - Real-Time Hand Gesture Identification in Thermal Images [0.0]
我々のシステムは、フレーム内の複数のハンド領域を処理し、リアルタイムアプリケーションで高速に処理することができる。
ジェスチャー10のサーマルイメージデータセットを新たに収集し,手動作認識精度97%を報告した。
論文 参考訳(メタデータ) (2023-03-04T05:02:35Z) - Audio-Driven Co-Speech Gesture Video Generation [92.15661971086746]
音声駆動型音声合成におけるこの課題を定義し,検討する。
私たちの重要な洞察は、共同音声ジェスチャーは共通の動きパターンと微妙なリズムダイナミクスに分解できるということです。
本稿では,再利用可能な音声のジェスチャーパターンを効果的に捉えるための新しいフレームワークであるAudio-driveN Gesture vIdeo gEneration(ANGIE)を提案する。
論文 参考訳(メタデータ) (2022-12-05T15:28:22Z) - Detection of Real-time DeepFakes in Video Conferencing with Active
Probing and Corneal Reflection [43.272069005626584]
本稿では,リアルタイムのDeepFakeを検出するための新しい法医学的手法について述べる。
我々は、画面上に異なるパターンを表示し、通話参加者の顔の画像から抽出した角膜反射を用いて、ビデオ通話を認証する。
このパターンは、共有画面に表示された呼び出し参加者またはビデオコールクライアントに直接統合された呼び出し参加者によって誘導される。
論文 参考訳(メタデータ) (2022-10-21T23:31:17Z) - Gesture2Path: Imitation Learning for Gesture-aware Navigation [54.570943577423094]
Gesture2Pathは、画像に基づく模倣学習とモデル予測制御を組み合わせた新しいソーシャルナビゲーション手法である。
実際のロボットに本手法をデプロイし,4つのジェスチャーナビゲーションシナリオに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-09-19T23:05:36Z) - Head and eye egocentric gesture recognition for human-robot interaction
using eyewear cameras [4.344337854565144]
この研究は人間のジェスチャー認識の問題に対処する。
特に、頭部と眼のジェスチャーに焦点を合わせ、アイウェアカメラを用いた自我中心(ファーストパーソナリティ)の視点を採用する。
2つの時間的粒度で動作する動きに基づく認識手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T13:26:05Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - Gesture Recognition from Skeleton Data for Intuitive Human-Machine
Interaction [0.6875312133832077]
本稿では,手工芸品の集合に基づく動的ジェスチャーのセグメント化と分類のためのアプローチを提案する。
ジェスチャー認識方法はスライディングウィンドウを適用し、空間次元と時間次元の両方から情報を抽出する。
最終的に、認識されたジェスチャーは、協調ロボットと対話するために使用される。
論文 参考訳(メタデータ) (2020-08-26T11:28:50Z) - Audio- and Gaze-driven Facial Animation of Codec Avatars [149.0094713268313]
音声および/またはアイトラッキングを用いて,コーデックアバターをリアルタイムにアニメーション化するための最初のアプローチについて述べる。
私たちのゴールは、重要な社会的シグナルを示す個人間の表現力のある会話を表示することです。
論文 参考訳(メタデータ) (2020-08-11T22:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。