論文の概要: Online Recognition of Incomplete Gesture Data to Interface Collaborative
Robots
- arxiv url: http://arxiv.org/abs/2304.06777v1
- Date: Thu, 13 Apr 2023 18:49:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 15:28:19.542091
- Title: Online Recognition of Incomplete Gesture Data to Interface Collaborative
Robots
- Title(参考訳): インタフェース協調ロボットにおける不完全ジェスチャーデータのオンライン認識
- Authors: M. A. Sim\~ao, O. Gibaru, P. Neto
- Abstract要約: 本稿では,ウェアラブルセンサで捉えた静的ジェスチャー(SG)と動的ジェスチャー(DG)の大きな語彙を分類するためのHRIフレームワークを提案する。
認識されたジェスチャーは、朝食の食事を準備する共同作業でロボットを遠隔操作するために使用される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online recognition of gestures is critical for intuitive human-robot
interaction (HRI) and further push collaborative robotics into the market,
making robots accessible to more people. The problem is that it is difficult to
achieve accurate gesture recognition in real unstructured environments, often
using distorted and incomplete multisensory data. This paper introduces an HRI
framework to classify large vocabularies of interwoven static gestures (SGs)
and dynamic gestures (DGs) captured with wearable sensors. DG features are
obtained by applying data dimensionality reduction to raw data from sensors
(resampling with cubic interpolation and principal component analysis).
Experimental tests were conducted using the UC2017 hand gesture dataset with
samples from eight different subjects. The classification models show an
accuracy of 95.6% for a library of 24 SGs with a random forest and 99.3% for 10
DGs using artificial neural networks. These results compare equally or
favorably with different commonly used classifiers. Long short-term memory deep
networks achieved similar performance in online frame-by-frame classification
using raw incomplete data, performing better in terms of accuracy than static
models with specially crafted features, but worse in training and inference
time. The recognized gestures are used to teleoperate a robot in a
collaborative process that consists in preparing a breakfast meal.
- Abstract(参考訳): ジェスチャーのオンライン認識は、直感的な人間とロボットのインタラクション(HRI)や、コラボレーションロボットの市場への進出に不可欠だ。
問題は、しばしば歪んだ、不完全な多重感覚データを用いて、実際の非構造化環境で正確なジェスチャー認識を実現することは困難である。
本稿では,ウェアラブルセンサで捉えた静的ジェスチャー(SG)と動的ジェスチャー(DG)の大きな語彙を分類するためのHRIフレームワークを提案する。
センサからの生データ(立方体補間および主成分分析による例)にデータ次元の縮小を適用してdg特性を得る。
8つの被験者のサンプルを用いてUC2017ハンドジェスチャデータセットを用いて実験を行った。
分類モデルは、ランダムな森林を持つ24のSGライブラリで95.6%、人工ニューラルネットワークで10のDGで99.3%の精度を示している。
これらの結果は、異なる一般的な分類器と等しく好ましく比較される。
長期記憶深層ネットワークは、生の不完全データを用いたオンラインフレーム・バイ・フレーム分類において同様の性能を達成し、特別に製作された特徴を持つ静的モデルよりも精度が良いが、トレーニングや推論時間では悪い。
認識されたジェスチャーは、朝食の食事を準備する協調プロセスでロボットを遠隔操作するために使用される。
関連論文リスト
- Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Hand Gesture Classification on Praxis Dataset: Trading Accuracy for
Expense [0.6390468088226495]
ボディージョイント座標で表される「骨格」データに、Praxデータセットから焦点を当てる。
PRAXISデータセットには、アルツハイマー病などの皮質病患者の記録が含まれている。
リカレントニューラルネットワーク(RNN)のような深層学習アーキテクチャとウィンドウニング手法を組み合わせることで,全体的な精度は70.8%に達した。
論文 参考訳(メタデータ) (2023-11-01T18:18:09Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - Object recognition for robotics from tactile time series data utilising
different neural network architectures [0.0]
本稿では,コンボリューショナルニューラルネットワーク(CNN)とLong-Short Term Memory(LSTM)ニューラルネットワークアーキテクチャを用いて,触覚データに基づくオブジェクト分類を行う。
我々は,2種類の指先センサ(BioTac SPとWTS-FT)のデータを用いて,これらの手法を比較した。
提案手法は,全時系列データを用いた最大精度を82.4% (BioTac SP fingertips) と90.7% (WTS-FT fingertips) から約94% に改善した。
論文 参考訳(メタデータ) (2021-09-09T22:05:45Z) - Kimera-Multi: Robust, Distributed, Dense Metric-Semantic SLAM for
Multi-Robot Systems [92.26462290867963]
Kimera-Multiは、最初のマルチロボットシステムであり、不正なインターループとイントラロボットループの閉鎖を識別し拒否することができる。
我々は、フォトリアリスティックシミュレーション、SLAMベンチマークデータセット、地上ロボットを用いて収集された屋外データセットの挑戦において、Kimera-Multiを実証した。
論文 参考訳(メタデータ) (2021-06-28T03:56:40Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Human Haptic Gesture Interpretation for Robotic Systems [3.888848425698769]
物理的人間とロボットの相互作用(pHRI)は、人間と人間の相互作用よりも効率的でコミュニケーションが難しい。
主な理由は、ロボットシステムにおける情報的な触覚の欠如である。
本研究は,文献で特定されるジェスチャーの特徴の大部分をカバーする4つのタッチジェスチャークラスを提案する。
論文 参考訳(メタデータ) (2020-12-03T14:33:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。