論文の概要: A Comprehensive Review of Skeleton-based Movement Assessment Methods
- arxiv url: http://arxiv.org/abs/2007.10737v3
- Date: Wed, 29 Jul 2020 23:29:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:55:48.856797
- Title: A Comprehensive Review of Skeleton-based Movement Assessment Methods
- Title(参考訳): 骨格に基づく運動評価法の包括的考察
- Authors: Tal Hakim
- Abstract要約: 骨格ビデオからの運動自動評価に関する最近の解決策を概観する。
我々は,この話題に関する研究の現状を高いレベルで論じる。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The raising availability of 3D cameras and dramatic improvement of computer
vision algorithms in the recent decade, accelerated the research of automatic
movement assessment solutions. Such solutions can be implemented at home, using
affordable equipment and dedicated software. In this paper, we divide the
movement assessment task into secondary tasks and explain why they are needed
and how they can be addressed. We review the recent solutions for automatic
movement assessment from skeleton videos, comparing them by their objectives,
features, movement domains and algorithmic approaches. In addition, we discuss
the status of the research on this topic in a high level.
- Abstract(参考訳): 近年の3Dカメラの普及とコンピュータビジョンアルゴリズムの大幅な改善により、自動運動評価ソリューションの研究が加速された。
このようなソリューションは、安価な機器と専用ソフトウェアを使って、家庭で実装できる。
本稿では,動作評価タスクを二次課題に分割し,なぜ必要なのか,どのように対処できるかを説明する。
本稿では,最近のスケルトン動画の自動移動評価手法について,目的,特徴,動き領域,アルゴリズム的アプローチで比較した。
また,このトピックに関する研究の現状について,高いレベルで議論する。
関連論文リスト
- Occlusion-Aware 2D and 3D Centerline Detection for Urban Driving via
Automatic Label Generation [4.921246328739616]
本研究は,高ダイナミックな都市運転シナリオ下での2次元および3次元の道路トポロジ情報を決定する戦略を探求し,特定することを目的とする。
この探索を容易にするために、100万近い自動ラベル付きデータフレームからなる実質的なデータセットを導入する。
論文 参考訳(メタデータ) (2023-11-03T17:20:34Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive
Survey [67.89650389832147]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and
Benchmarks [88.44377206798484]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
我々は、イベントベースのビジョンのためのDL技術の最新の開発に焦点をあてて、包括的で詳細な調査を初めて実施する。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Benchmarking Deep Reinforcement Learning Algorithms for Vision-based
Robotics [11.225021326001778]
本稿では,2つの視覚に基づくロボット工学問題の解法として,最先端の強化学習アルゴリズムのベンチマーク研究を行う。
これらのアルゴリズムの性能は、PyBulletの2つのシミュレーション環境であるKukaDiverseObjectEnvとRacecarZEDGymEnvと比較される。
論文 参考訳(メタデータ) (2022-01-11T22:45:25Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - A Pose-only Solution to Visual Reconstruction and Navigation [23.86386627769292]
大規模なシーンやクリティカルなカメラの動きは、この目標を達成するために研究コミュニティが直面する大きな課題です。
私たちは、これらの課題を解決できるポーズオンリーのイメージングジオメトリフレームワークとアルゴリズムを立ち上げました。
論文 参考訳(メタデータ) (2021-03-02T07:21:08Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Attentional Separation-and-Aggregation Network for Self-supervised
Depth-Pose Learning in Dynamic Scenes [19.704284616226552]
エピポーラプロジェクションからの自己監督によるラベルなしビデオからの深度とエゴモーションの学習は、視覚に基づくロボットの3D知覚の堅牢性と精度を向上させることができる。
しかし、エゴモーションによって計算される剛性プロジェクションは、移動物体の点などすべてのシーンポイントを表現できないため、これらの領域では誤ったガイダンスが導かれる。
本研究では,アテンショナル・アグリゲーション・ネットワーク(ASANet)を提案する。アテンショナル・アグリゲーション・ネットワークは,アテンション・メカニズムによってシーンの静的・動的特性を識別・抽出することができる。
論文 参考訳(メタデータ) (2020-11-18T16:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。