論文の概要: Motion Capture Benchmark of Real Industrial Tasks and Traditional Crafts
for Human Movement Analysis
- arxiv url: http://arxiv.org/abs/2304.03771v1
- Date: Mon, 3 Apr 2023 10:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-16 22:35:51.759562
- Title: Motion Capture Benchmark of Real Industrial Tasks and Traditional Crafts
for Human Movement Analysis
- Title(参考訳): 人間行動分析のための実産業作業と伝統工芸品のモーションキャプチャベンチマーク
- Authors: Brenda Elizabeth Olivas-Padilla, Alina Glushkova and Sotiris
Manitsaris
- Abstract要約: 本稿では,慣性に基づくモーションキャプチャを用いて記録した7つのデータセットについて述べる。
データセットには、産業従事者や熟練した職人が現場で行うプロのジェスチャーが含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human movement analysis is a key area of research in robotics, biomechanics,
and data science. It encompasses tracking, posture estimation, and movement
synthesis. While numerous methodologies have evolved over time, a systematic
and quantitative evaluation of these approaches using verifiable ground truth
data of three-dimensional human movement is still required to define the
current state of the art. This paper presents seven datasets recorded using
inertial-based motion capture. The datasets contain professional gestures
carried out by industrial operators and skilled craftsmen performed in real
conditions in-situ. The datasets were created with the intention of being used
for research in human motion modeling, analysis, and generation. The protocols
for data collection are described in detail, and a preliminary analysis of the
collected data is provided as a benchmark. The Gesture Operational Model, a
hybrid stochastic-biomechanical approach based on kinematic descriptors, is
utilized to model the dynamics of the experts' movements and create
mathematical representations of their motion trajectories for analysis and
quantifying their body dexterity. The models allowed accurate the generation of
human professional poses and an intuitive description of how body joints
cooperate and change over time through the performance of the task.
- Abstract(参考訳): 人間の動き分析は、ロボット工学、バイオメカニクス、データサイエンスにおける重要な研究分野である。
トラッキング、姿勢推定、運動合成などを含む。
長年にわたって多くの方法論が発展してきたが、これらの手法の体系的かつ定量的な評価は、人間の3次元運動の検証可能な真理データを用いても必要である。
本稿では,慣性に基づくモーションキャプチャを用いて記録した7つのデータセットについて述べる。
データセットには、現場で実環境で行われる工業従事者や熟練職人によるプロフェッショナルなジェスチャーが含まれている。
データセットは人間の動作モデリング、分析、生成の研究に使用されることを意図して作成された。
データ収集のためのプロトコルを詳細に記述し、収集したデータの予備分析をベンチマークとして提供する。
Gesture Operational Modelは、運動記述子に基づくハイブリッド確率的バイオメカニカルアプローチであり、専門家の動きのダイナミクスをモデル化し、運動軌跡の数学的表現を作成して、身体のデキスタリティを分析し定量化する。
このモデルでは、人間のプロのポーズを正確に生成することができ、作業のパフォーマンスを通じて、身体の関節がどのように協力し変化するかを直感的に記述することができた。
関連論文リスト
- Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - 3D Kinematics Estimation from Video with a Biomechanical Model and
Synthetic Training Data [4.130944152992895]
2つの入力ビューから3Dキネマティクスを直接出力するバイオメカニクス対応ネットワークを提案する。
実験により, 提案手法は, 合成データにのみ訓練されたものであり, 従来の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-02-20T17:33:40Z) - Deep state-space modeling for explainable representation, analysis, and
generation of professional human poses [0.0]
本稿では,人間の動作を説明可能な表現にするための3つの新しい手法を紹介する。
トレーニングされたモデルは、専門家のフルボディのデキスタリティ分析に使用される。
論文 参考訳(メタデータ) (2023-04-13T08:13:10Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Graph-based Normalizing Flow for Human Motion Generation and
Reconstruction [20.454140530081183]
過去の情報と制御信号に基づく長地平線運動系列を合成・再構築する確率生成モデルを提案する。
足踏み解析と骨長解析を併用したモーションキャプチャデータセットを用いたモデル評価を行った。
論文 参考訳(メタデータ) (2021-04-07T09:51:15Z) - Methodology for Mining, Discovering and Analyzing Semantic Human
Mobility Behaviors [0.3499870393443268]
本研究では,セマンティックモビリティシーケンスのマイニングと解析を行うsimbaという手法を提案する。
セマンティクスシーケンスモビリティ解析とクラスタリング拡張性のためのフレームワークを実装した。
論文 参考訳(メタデータ) (2020-12-08T22:24:19Z) - Data Science for Motion and Time Analysis with Modern Motion Sensor Data [14.105132549564873]
モーション・アンド・タイム分析は、オペレーション・リサーチにおいて人気のある研究トピックである。
リーン製造とスマートファクトリのための継続的改善ツールとして、再び注目を集めています。
本稿では,作業動作のデータ駆動分析のためのフレームワークを開発し,作業速度や実行速度との関係について検討する。
論文 参考訳(メタデータ) (2020-08-25T02:33:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。