論文の概要: A Comprehensive Review of Skeleton-based Movement Assessment Methods
- arxiv url: http://arxiv.org/abs/2007.10737v3
- Date: Wed, 29 Jul 2020 23:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:55:48.856797
- Title: A Comprehensive Review of Skeleton-based Movement Assessment Methods
- Title(参考訳): 骨格に基づく運動評価法の包括的考察
- Authors: Tal Hakim
- Abstract要約: 骨格ビデオからの運動自動評価に関する最近の解決策を概観する。
我々は,この話題に関する研究の現状を高いレベルで論じる。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The raising availability of 3D cameras and dramatic improvement of computer
vision algorithms in the recent decade, accelerated the research of automatic
movement assessment solutions. Such solutions can be implemented at home, using
affordable equipment and dedicated software. In this paper, we divide the
movement assessment task into secondary tasks and explain why they are needed
and how they can be addressed. We review the recent solutions for automatic
movement assessment from skeleton videos, comparing them by their objectives,
features, movement domains and algorithmic approaches. In addition, we discuss
the status of the research on this topic in a high level.
- Abstract(参考訳): 近年の3Dカメラの普及とコンピュータビジョンアルゴリズムの大幅な改善により、自動運動評価ソリューションの研究が加速された。
このようなソリューションは、安価な機器と専用ソフトウェアを使って、家庭で実装できる。
本稿では,動作評価タスクを二次課題に分割し,なぜ必要なのか,どのように対処できるかを説明する。
本稿では,最近のスケルトン動画の自動移動評価手法について,目的,特徴,動き領域,アルゴリズム的アプローチで比較した。
また,このトピックに関する研究の現状について,高いレベルで議論する。
関連論文リスト
- Markerless Multi-view 3D Human Pose Estimation: a survey [0.49157446832511503]
3D人間のポーズ推定は、複数の関節を検知することで、シーン内のすべての個人の骨格を再構築することを目的としている。
3Dポーズの再構築に関わるすべての課題を解決する方法はまだない。
さらに、高い精度の3Dポーズを計算コストで迅速に推測できるアプローチを開発するためには、さらなる研究が必要である。
論文 参考訳(メタデータ) (2024-07-04T10:44:35Z) - Deep Learning-Based Object Pose Estimation: A Comprehensive Survey [73.74933379151419]
ディープラーニングに基づくオブジェクトポーズ推定の最近の進歩について論じる。
また、複数の入力データモダリティ、出力ポーズの自由度、オブジェクト特性、下流タスクについても調査した。
論文 参考訳(メタデータ) (2024-05-13T14:44:22Z) - Evaluation Framework for Feedback Generation Methods in Skeletal Movement Assessment [0.65268245109828]
本稿では,フィードバック生成ソリューションの分類,評価,比較のための用語と基準を提案する。
我々の知る限り、骨格運動評価においてフィードバック生成を定式化した最初の作品である。
論文 参考訳(メタデータ) (2024-04-14T21:14:47Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Benchmarking Deep Reinforcement Learning Algorithms for Vision-based
Robotics [11.225021326001778]
本稿では,2つの視覚に基づくロボット工学問題の解法として,最先端の強化学習アルゴリズムのベンチマーク研究を行う。
これらのアルゴリズムの性能は、PyBulletの2つのシミュレーション環境であるKukaDiverseObjectEnvとRacecarZEDGymEnvと比較される。
論文 参考訳(メタデータ) (2022-01-11T22:45:25Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Attentional Separation-and-Aggregation Network for Self-supervised
Depth-Pose Learning in Dynamic Scenes [19.704284616226552]
エピポーラプロジェクションからの自己監督によるラベルなしビデオからの深度とエゴモーションの学習は、視覚に基づくロボットの3D知覚の堅牢性と精度を向上させることができる。
しかし、エゴモーションによって計算される剛性プロジェクションは、移動物体の点などすべてのシーンポイントを表現できないため、これらの領域では誤ったガイダンスが導かれる。
本研究では,アテンショナル・アグリゲーション・ネットワーク(ASANet)を提案する。アテンショナル・アグリゲーション・ネットワークは,アテンション・メカニズムによってシーンの静的・動的特性を識別・抽出することができる。
論文 参考訳(メタデータ) (2020-11-18T16:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。