論文の概要: Fusing Hand and Body Skeletons for Human Action Recognition in Assembly
- arxiv url: http://arxiv.org/abs/2307.09238v1
- Date: Tue, 18 Jul 2023 13:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 14:43:53.144192
- Title: Fusing Hand and Body Skeletons for Human Action Recognition in Assembly
- Title(参考訳): アセンブリにおける人行動認識のための手と体骨格
- Authors: Dustin Aganian, Mona K\"ohler, Benedict Stephan, Markus Eisenbach,
Horst-Michael Gross
- Abstract要約: そこで本研究では,手骨の細部を細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部まで細部
本稿では,組立シナリオにおける行動認識の強化における提案手法の有効性を示す。
- 参考スコア(独自算出の注目度): 13.24875937437949
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As collaborative robots (cobots) continue to gain popularity in industrial
manufacturing, effective human-robot collaboration becomes crucial. Cobots
should be able to recognize human actions to assist with assembly tasks and act
autonomously. To achieve this, skeleton-based approaches are often used due to
their ability to generalize across various people and environments. Although
body skeleton approaches are widely used for action recognition, they may not
be accurate enough for assembly actions where the worker's fingers and hands
play a significant role. To address this limitation, we propose a method in
which less detailed body skeletons are combined with highly detailed hand
skeletons. We investigate CNNs and transformers, the latter of which are
particularly adept at extracting and combining important information from both
skeleton types using attention. This paper demonstrates the effectiveness of
our proposed approach in enhancing action recognition in assembly scenarios.
- Abstract(参考訳): コラボレーティブロボット(コラボレーティブロボット)が産業生産で人気を博すにつれ、効果的な人間とロボットのコラボレーションが重要になる。
コボットは人間の行動を認識でき、組み立て作業を支援し、自律的に行動できる。
これを実現するために、スケルトンベースのアプローチは、様々な人々や環境にまたがって一般化できるため、しばしば使用される。
ボディスケルトンアプローチは行動認識に広く用いられているが、作業者の指と手が重要な役割を果たすような組み立て動作には不十分である。
この制限に対処するために,より詳細な体骨格と高度に詳細な手骨格を組み合わせる方法を提案する。
我々はCNNとトランスフォーマーについて検討し、後者は両骨格タイプから重要な情報を注目して抽出し、組み合わせることに長けている。
本稿では,組立シナリオにおける行動認識の強化における提案手法の有効性を示す。
関連論文リスト
- SkeleTR: Towrads Skeleton-based Action Recognition in the Wild [86.03082891242698]
SkeleTRは骨格に基づく行動認識のための新しいフレームワークである。
まず、グラフ畳み込みによる各骨格配列の人体内骨格力学をモデル化する。
次に、スタック化されたTransformerエンコーダを使用して、一般的なシナリオにおけるアクション認識に重要な人物のインタラクションをキャプチャする。
論文 参考訳(メタデータ) (2023-09-20T16:22:33Z) - Dynamic Hand Gesture-Featured Human Motor Adaptation in Tool Delivery
using Voice Recognition [5.13619372598999]
本稿では,革新的なロボット協調フレームワークを提案する。
手の動きや動的動きの認識、音声認識、切り替え可能な制御適応戦略をシームレスに統合する。
ハンドジェスチャ認識における優れた性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-09-20T14:51:09Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - How Object Information Improves Skeleton-based Human Action Recognition
in Assembly Tasks [12.349172146831506]
本稿では,物体情報を骨格に基づく行動認識に組み込む新しい手法を提案する。
我々は、物体中心をさらなる骨格関節として扱うことにより、最先端の2つの方法を強化する。
我々の研究は、組み立て作業における人間の行動認識のための骨格関節と物体情報を組み合わせることの利点に光を当てている。
論文 参考訳(メタデータ) (2023-06-09T12:18:14Z) - Joint Action is a Framework for Understanding Partnerships Between
Humans and Upper Limb Prostheses [0.6649973446180738]
本研究は, 各種補綴器(逐次切替, パターン認識, 適応切換)を関節動作の指標として比較する。
比較の結果、既存の筋電系が相互にどのように関連しているかを理解するための新たな視点が導かれる。
論文 参考訳(メタデータ) (2022-12-28T23:27:32Z) - Generalizable Human-Robot Collaborative Assembly Using Imitation
Learning and Force Control [17.270360447188196]
本稿では,実演から学び,ポーズ推定を用いたロボット協調組立システムを提案する。
提案システムでは, ロボット組立シナリオにおいて, 物理的6DoFマニピュレータを用いて実験を行った。
論文 参考訳(メタデータ) (2022-12-02T20:35:55Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Skeleton-Aware Networks for Deep Motion Retargeting [83.65593033474384]
骨格間のデータ駆動動作のための新しいディープラーニングフレームワークを提案する。
我々の手法は、トレーニングセットの運動間の明確なペアリングを必要とせずに、再ターゲティングの仕方を学ぶ。
論文 参考訳(メタデータ) (2020-05-12T12:51:40Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。