論文の概要: Rapid-Motion-Track: Markerless Tracking of Fast Human Motion with Deeper
Learning
- arxiv url: http://arxiv.org/abs/2302.08505v1
- Date: Wed, 18 Jan 2023 22:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:26:15.746579
- Title: Rapid-Motion-Track: Markerless Tracking of Fast Human Motion with Deeper
Learning
- Title(参考訳): Rapid-Motion-Track:より深い学習による高速な人間の動きのマーカーレス追跡
- Authors: Renjie Li, Chun Yu Lao, Rebecca St. George, Katherine Lawler, Saurabh
Garg, Son N. Tran, Quan Bai, Jane Alty
- Abstract要約: 運動の小さな欠損は、しばしば基礎となる神経学的問題の最初の兆候である。
エンド・ツー・エンドのディープラーニングシステムであるRapid-Motion-Track(RMT)を開発した。
RMTは、ウェブカメラやラップトップカメラを使用するとき、人間の動きを正確に追跡することができる。
- 参考スコア(独自算出の注目度): 10.086410807283746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective The coordination of human movement directly reflects function of
the central nervous system. Small deficits in movement are often the first sign
of an underlying neurological problem. The objective of this research is to
develop a new end-to-end, deep learning-based system, Rapid-Motion-Track (RMT)
that can track the fastest human movement accurately when webcams or laptop
cameras are used.
Materials and Methods We applied RMT to finger tapping, a well-validated test
of motor control that is one of the most challenging human motions to track
with computer vision due to the small keypoints of digits and the high
velocities that are generated. We recorded 160 finger tapping assessments
simultaneously with a standard 2D laptop camera (30 frames/sec) and a
high-speed wearable sensor-based 3D motion tracking system (250 frames/sec).
RMT and a range of DLC models were applied to the video data with tapping
frequencies up to 8Hz to extract movement features.
Results The movement features (e.g. speed, rhythm, variance) identified with
the new RMT system exhibited very high concurrent validity with the
gold-standard measurements (97.3\% of RMT measures were within +/-0.5Hz of the
Optotrak measures), and outperformed DLC and other advanced computer vision
tools (around 88.2\% of DLC measures were within +/-0.5Hz of the Optotrak
measures). RMT also accurately tracked a range of other rapid human movements
such as foot tapping, head turning and sit-to -stand movements.
Conclusion: With the ubiquity of video technology in smart devices, the RMT
method holds potential to transform access and accuracy of human movement
assessment.
- Abstract(参考訳): 目的 ヒトの動きの協調は、中枢神経系の機能を直接反映する。
運動障害は神経学的な問題の最初の兆候であることが多い。
本研究の目的は、ウェブカメラやラップトップカメラを使用する際に、人間の動きを正確に追跡できる、エンドツーエンドのディープラーニングベースシステムであるRapid-Motion-Track(RMT)を開発することである。
指タッピングにrmtを応用した材料と手法は,指のキーポイントが小さいことや生成する速度が高いことなどから,コンピュータビジョンで追跡する最も難しい人間の動きの一つである運動制御のよく評価されたテストである。
標準の2dラップトップカメラ(30フレーム/秒)と高速ウェアラブルセンサを用いた3dモーショントラッキングシステム(250フレーム/秒)を同時に160本の指のタップ評価を行った。
RMTと様々なDLCモデルを8Hzの周波数で動画データに適用し,運動特徴を抽出した。
その結果, 新しいRTTシステムで同定された運動特性(速度, リズム, ばらつきなど)は, 金標準測定値と極めて高い同時性を示し (97.3 %はオプトトラック測定値の+/-0.5Hz以内), DLCおよびその他の先進コンピュータビジョンツール(DLC測定値の88.2 %はオプトトラック測定値の+/-0.5Hz以内)に優れていた。
RMTはまた、足のタッピング、頭部の回転、立ち上がり動作など、他の急速な人間の動きを正確に追跡した。
結論: スマートデバイスにおけるビデオ技術の普及に伴い,RTT法は人間の動作評価のアクセスと精度を変換する可能性を秘めている。
関連論文リスト
- Ultrafast vision perception by neuromorphic optical flow [1.1980928503177917]
3次元ニューロモルフィック光フロー法は,外的運動特徴を直接ハードウェアに埋め込む。
実演では,視覚的なデータ処理時間を平均0.3秒短縮する。
ニューロモルフィック光フローアルゴリズムの柔軟性は、既存のアルゴリズムとのシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2024-09-10T10:59:32Z) - Motion-Guided Dual-Camera Tracker for Endoscope Tracking and Motion Analysis in a Mechanical Gastric Simulator [5.073179848641095]
運動誘導型デュアルカメラ・ビジョン・トラッカーは内視鏡先端の3次元位置の頑健かつ正確な追跡を実現するために提案される。
提案したトラッカーは、最先端のビジョントラッカーに対して優れた性能を示し、平均誤差と最大誤差において、第2ベット法に対して42%と72%の改善を達成している。
論文 参考訳(メタデータ) (2024-03-08T08:31:46Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Deep learning-based approaches for human motion decoding in smart
walkers for rehabilitation [3.8791511769387634]
スマートウォーカーは、できるだけ早く人間の動きとニーズをデコードできなければならない。
現在の歩行者はウェアラブルや組込みセンサーの情報を用いて動きの意図を復号する。
早期の動作認識・検出問題として人間の動作復号化に対処する非接触アプローチを提案する。
論文 参考訳(メタデータ) (2023-01-13T14:29:44Z) - QuestSim: Human Motion Tracking from Sparse Sensors with Simulated
Avatars [80.05743236282564]
人間の身体の動きのリアルタイム追跡は、AR/VRにおける没入感のある体験に不可欠である。
本稿では,HMDと2つのコントローラから疎信号を取り出す強化学習フレームワークを提案する。
一つのポリシーは、多様な移動スタイル、異なる体の大きさ、新しい環境に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:25:54Z) - D&D: Learning Human Dynamics from Dynamic Camera [55.60512353465175]
本稿では、物理の法則を活かしたD&D(Learning Human Dynamics from Dynamic Camera)を紹介する。
私たちのアプローチは完全にニューラルネットワークで、物理エンジンのオフライン最適化やシミュレーションなしで動作します。
論文 参考訳(メタデータ) (2022-09-19T06:51:02Z) - Neural Monocular 3D Human Motion Capture with Physical Awareness [76.55971509794598]
物理的に可塑性なマーカーレス3次元モーションキャプチャのための新しいトレーニングシステムを提案する。
人間のモーションキャプチャのためのほとんどのニューラルな手法とは異なり、我々のアプローチは物理的および環境的な制約を認識している。
様々な場面でインタラクティブなフレームレートで、滑らかで物理的に原理化された3dモーションを生成する。
論文 参考訳(メタデータ) (2021-05-03T17:57:07Z) - Contact and Human Dynamics from Monocular Video [73.47466545178396]
既存のディープモデルは、ほぼ正確に見えるエラーを含むビデオから2Dと3Dキネマティックのポーズを予測する。
本稿では,最初の2次元と3次元のポーズ推定を入力として,映像系列から3次元の人間の動きを推定する物理に基づく手法を提案する。
論文 参考訳(メタデータ) (2020-07-22T21:09:11Z) - When We First Met: Visual-Inertial Person Localization for Co-Robot
Rendezvous [29.922954461039698]
ウェアラブル慣性計測装置(IMU)によって測定された動きとビデオ中の人物の動きを容易に一致させることができる視覚慣性特徴空間の学習法を提案する。
提案手法は,IMUデータとビデオの5秒間のみを用いて,80.7%の精度で目標人物を正確に位置決めすることができる。
論文 参考訳(メタデータ) (2020-06-17T16:15:01Z) - A Time-Delay Feedback Neural Network for Discriminating Small,
Fast-Moving Targets in Complex Dynamic Environments [8.645725394832969]
複雑な視覚環境の中で小さな移動物体を識別することは、自律型マイクロロボットにとって重要な課題である。
フィードバック接続を備えたSTMDベースのニューラルネットワーク(Feedback STMD)を提案する。
論文 参考訳(メタデータ) (2019-12-29T03:10:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。