論文の概要: The influence of labeling techniques in classifying human manipulation
movement of different speed
- arxiv url: http://arxiv.org/abs/2202.02426v1
- Date: Fri, 4 Feb 2022 23:04:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 18:14:33.290606
- Title: The influence of labeling techniques in classifying human manipulation
movement of different speed
- Title(参考訳): 速度の異なる人間の操作動作の分類におけるラベリング技術の影響
- Authors: Sadique Adnan Siddiqui, Lisa Gutzeit, Frank Kirchner
- Abstract要約: マーカーを用いたモーションキャプチャーシステムを用いて記録したデータに対して,ラベル付け手法が人間の動作の分類に与える影響について検討した。
このデータセットは2つの異なるアプローチを用いてラベル付けされる。1つは動きのビデオデータに基づくもので、もう1つはモーションキャプチャシステムを用いて記録された動き軌跡に基づくものである。
- 参考スコア(独自算出の注目度): 2.9972063833424216
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we investigate the influence of labeling methods on the
classification of human movements on data recorded using a marker-based motion
capture system. The dataset is labeled using two different approaches, one
based on video data of the movements, the other based on the movement
trajectories recorded using the motion capture system. The dataset is labeled
using two different approaches, one based on video data of the movements, the
other based on the movement trajectories recorded using the motion capture
system. The data was recorded from one participant performing a stacking
scenario comprising simple arm movements at three different speeds (slow,
normal, fast). Machine learning algorithms that include k-Nearest Neighbor,
Random Forest, Extreme Gradient Boosting classifier, Convolutional Neural
networks (CNN), Long Short-Term Memory networks (LSTM), and a combination of
CNN-LSTM networks are compared on their performance in recognition of these arm
movements. The models were trained on actions performed on slow and normal
speed movements segments and generalized on actions consisting of fast-paced
human movement. It was observed that all the models trained on normal-paced
data labeled using trajectories have almost 20% improvement in accuracy on test
data in comparison to the models trained on data labeled using videos of the
performed experiments.
- Abstract(参考訳): 本研究では,マーカーを用いたモーションキャプチャシステムを用いて記録されたデータに対する人間の動きの分類に対するラベル付け手法の影響について検討する。
データセットは2つの異なるアプローチでラベル付けされ、1つは動画データに基づいており、もう1つはモーションキャプチャシステムで記録された動き軌跡に基づいている。
データセットは2つの異なるアプローチでラベル付けされ、1つは動画データに基づいており、もう1つはモーションキャプチャシステムで記録された動き軌跡に基づいている。
データは、3つの異なる速度(低速、正常、高速)で単純な腕の動きからなる積み重ねシナリオを実行する1人の参加者から記録された。
k-nearest neighbor,random forest,extreme gradient boosting classifier,convolutional neural networks (cnn),long short-term memory networks (lstm),およびcnn-lstmネットワークの組み合わせを含む機械学習アルゴリズムは,これらのアーム動作の認識における性能を比較する。
モデルは、低速および正常な速度運動セグメントで実行される動作を訓練し、速いペースの人間の動きからなる動作を一般化した。
トラジェクトリーを用いてラベル付けされた正常なペーストデータに基づいてトレーニングされたモデルは全て、実験ビデオを用いてトレーニングされたモデルと比較して、テストデータに対する精度が約20%向上することが観察された。
関連論文リスト
- ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - Neuromorphic Vision-based Motion Segmentation with Graph Transformer Neural Network [4.386534439007928]
本稿では,GTNNと呼ばれるグラフトランスフォーマーニューラルネットワークを用いたイベントベース動作分割アルゴリズムを提案する。
提案アルゴリズムは, イベント間の局所的および大域的相関を明らかにするために, 一連の非線形変換により, イベントストリームを3次元グラフとして処理する。
GTNNは、動的背景変動、動きパターン、および様々な大きさと速度を持つ複数の動的物体の存在下で、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-16T22:44:29Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Motion Matters: Neural Motion Transfer for Better Camera Physiological
Measurement [25.27559386977351]
身体の動きは、ビデオから微妙な心臓の脈を回復しようとするとき、最も重要なノイズ源の1つである。
我々は,遠隔光合成のタスクのために,ニューラルビデオ合成アプローチをビデオの拡張に適用する。
各種の最先端手法を用いて,既存のデータセット間結果よりも47%向上したことを示す。
論文 参考訳(メタデータ) (2023-03-21T17:51:23Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - Three-stream network for enriched Action Recognition [0.0]
本稿では,3つのストリームを持つCNNベースの2つのアーキテクチャを提案する。
UCF-101, Kinetics-600, AVAデータセット上で様々なアルゴリズムを実験することにより, 提案したモデルが人間の行動認識タスクの最先端性能を達成することを観察する。
論文 参考訳(メタデータ) (2021-04-27T08:56:11Z) - Domain Adaptive Robotic Gesture Recognition with Unsupervised
Kinematic-Visual Data Alignment [60.31418655784291]
本稿では,マルチモダリティ知識,すなわちキネマティックデータとビジュアルデータを同時にシミュレータから実ロボットに伝達できる,教師なしドメイン適応フレームワークを提案する。
ビデオの時間的手がかりと、ジェスチャー認識に対するマルチモーダル固有の相関を用いて、トランスファー可能な機能を強化したドメインギャップを修復する。
その結果, 本手法は, ACCでは最大12.91%, F1scoreでは20.16%と, 実際のロボットではアノテーションを使わずに性能を回復する。
論文 参考訳(メタデータ) (2021-03-06T09:10:03Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Deep learning-based classification of fine hand movements from low
frequency EEG [5.414308305392762]
脳波信号から異なる手の動きの分類は、関連する研究課題である。
我々は新たに提案された畳み込みニューラルネットワーク(CNN)を訓練し、テストした。
CNNは両方のデータセットで優れたパフォーマンスを達成し、ベースラインモデルと似ているか優れている。
論文 参考訳(メタデータ) (2020-11-13T07:16:06Z) - RSPNet: Relative Speed Perception for Unsupervised Video Representation
Learning [100.76672109782815]
本研究では,未ラベル映像のみから動作特徴と外観特徴の両方を学習するための教師なし映像表現学習について検討する。
動作と外観の両方をうまくモデル化するために、適切な自己指導タスクを構築することは困難である。
再生速度を知覚し、2つのビデオクリップ間の相対速度をラベルとして利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-27T16:42:50Z) - Attention and Encoder-Decoder based models for transforming articulatory
movements at different speaking rates [60.02121449986413]
LSTMを用いたエンコーダデコーダアーキテクチャを提案する。
変換された調音運動の振幅を原音と異なる速度で解析する。
AstNetは,既存の変換手法よりも音節運動の持続時間と範囲をモデル化できる。
論文 参考訳(メタデータ) (2020-06-04T19:33:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。