論文の概要: Viewpoint-Invariant Exercise Repetition Counting
- arxiv url: http://arxiv.org/abs/2107.13760v1
- Date: Thu, 29 Jul 2021 06:00:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 20:23:40.550126
- Title: Viewpoint-Invariant Exercise Repetition Counting
- Title(参考訳): 視点不変運動反復計数
- Authors: Yu Cheng Hsu, Qingpeng Zhang, Efstratios Tsougenis, Kwok-Leung Tsui
- Abstract要約: 提案手法は、ビューアングルとモーション非依存の同時動作カウントを提供する。
この方法は、1台のカメラだけで大規模な遠隔リハビリテーションや運動訓練に使用できる可能性がある。
- 参考スコア(独自算出の注目度): 6.607691866540161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counting the repetition of human exercise and physical rehabilitation is a
common task in rehabilitation and exercise training. The existing vision-based
repetition counting methods less emphasize the concurrent motions in the same
video. This work presents a vision-based human motion repetition counting
applicable to counting concurrent motions through the skeleton location
extracted from various pose estimation methods. The presented method was
validated on the University of Idaho Physical Rehabilitation Movements Data Set
(UI-PRMD), and MM-fit dataset. The overall mean absolute error (MAE) for mm-fit
was 0.06 with off-by-one Accuracy (OBOA) 0.94. Overall MAE for UI-PRMD dataset
was 0.06 with OBOA 0.95. We have also tested the performance in a variety of
camera locations and concurrent motions with conveniently collected video with
overall MAE 0.06 and OBOA 0.88. The proposed method provides a view-angle and
motion agnostic concurrent motion counting. This method can potentially use in
large-scale remote rehabilitation and exercise training with only one camera.
- Abstract(参考訳): ヒューマンエクササイズと身体的リハビリテーションの繰り返しを数えることは、リハビリテーションと運動訓練において一般的な課題である。
既存のビジョンベースの反復カウント手法は、同じビデオの同時動作をあまり強調しない。
本研究は,様々なポーズ推定法から抽出した骨格位置から同時動作を数えるための視覚に基づくヒューマンモーション反復カウントを提案する。
提案手法は, アイダホ大学身体リハビリテーション運動データセット(UI-PRMD)とMM適合データセットを用いて検証した。
平均絶対誤差(MAE)は0.06であり、OBOAは0.94である。
UI-PRMDデータセット全体のMAEは0.06でOBOA 0.95である。
また,MAE 0.06 と OBOA 0.88 を併用して,様々なカメラ位置と同時動作で性能試験を行った。
提案手法は視野角と運動非依存の同時運動カウントを提供する。
この方法は、1台のカメラだけで大規模なリモートリハビリテーションやエクササイズトレーニングに使用できる可能性がある。
関連論文リスト
- Augmenting Vision-Based Human Pose Estimation with Rotation Matrix [0.20482269513546458]
本研究では,ポーズ推定と新たなデータ拡張手法,すなわち回転行列を併用したモデルを提案する。
ポーズ推定データに基づく行動認識の分類精度を高めることを目的としている。
論文 参考訳(メタデータ) (2023-10-09T18:19:51Z) - Intelligent Knee Sleeves: A Real-time Multimodal Dataset for 3D Lower
Body Motion Estimation Using Smart Textile [2.2008680042670123]
本稿では,人間のポーズ推定のために,Intelligent Knee Sleevesの新たなペアを用いてベンチマークを収集したマルチモーダルデータセットを提案する。
本システムは,Knee Sleevesの時系列データと,可視化されたモーションキャプチャーカメラシステムからの対応する地上真実ラベルからなる同期データセットを利用する。
我々はこれらを用いて、異なる活動を行う個人のウェアラブルデータのみに基づく3次元人体モデルを生成する。
論文 参考訳(メタデータ) (2023-10-02T00:34:21Z) - Advancements in Repetitive Action Counting: Joint-Based PoseRAC Model
With Improved Performance [10.38419878759364]
反復カウント(RepCount)は、フィットネストラッキングやリハビリテーションなどの様々な応用において重要である。
以前はレッドグリーン・アンド・ブルー(RGB)フレームとボディポーズのランドマークの推定に頼っていた。
本稿では,これらの課題に対処し,最先端のRepCount法よりも優れた結果を得るために,ボディポーズのランドマークとジョイントアングルを統合した。
論文 参考訳(メタデータ) (2023-08-15T16:54:26Z) - P\=uioio: On-device Real-Time Smartphone-Based Automated Exercise
Repetition Counting System [1.4050836886292868]
本稿では,(1)ポーズ推定,(2)閾値保持,(3)オプティカルフロー,(4)ステートマシン,(5)カウンタの5つのコンポーネントからなるスマートフォンの深層学習に基づくエクササイズカウントシステムを紹介する。
システムはP=uioioと呼ばれるクロスプラットフォームのモバイルアプリケーションを通じて実装され、スマートフォンカメラのみを使用して3つの標準エクササイズ(スクワット、プッシュアップ、プルアップ)をリアルタイムで追跡する。
論文 参考訳(メタデータ) (2023-07-22T01:38:02Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - PoseRAC: Pose Saliency Transformer for Repetitive Action Counting [56.34379680390869]
冗長なフレームではなく,2つのサレントポーズのみを用いて,各アクションを効率よく表現するPose Saliency Representationを導入する。
また,この表現に基づいて,最先端のパフォーマンスを実現するPoseRACについても紹介する。
当社の軽量モデルは非常に効率的で、GPUでのトレーニングに20分しか必要とせず、従来の方法に比べて10倍近い速さで推論します。
論文 参考訳(メタデータ) (2023-03-15T08:51:17Z) - Muscles in Action [22.482090207522358]
筋活動を人間の動作表現に組み込むための新しいデータセットである筋行動データセット(MIA)を提示する。
我々は、ビデオから筋の活性化を予測する双方向表現を学び、逆に、筋の活性化から動きを再構築する。
筋肉をコンピュータービジョンシステムに組み込むことで、スポーツ、フィットネス、AR/VRといった仮想人間のよりリッチなモデルが可能になる。
論文 参考訳(メタデータ) (2022-12-05T16:47:09Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Fusing Motion Patterns and Key Visual Information for Semantic Event
Recognition in Basketball Videos [87.29451470527353]
バスケットボールビデオのセマンティックイベント認識のために,グローバル・ローカル・モーション・パターン(MP)とキー視覚情報(KVI)を融合する手法を提案する。
カメラ調整の本質的特性に基づいて, 混合運動から大域的な動きを推定するアルゴリズムを提案する。
グローバル・ローカル・モーション・パターンを分離した2ストリーム3D CNNフレームワークを用いてグループ活動認識を行う。
論文 参考訳(メタデータ) (2020-07-13T10:15:44Z) - Appearance Learning for Image-based Motion Estimation in Tomography [60.980769164955454]
トモグラフィー画像では、取得した信号に擬似逆フォワードモデルを適用することにより、解剖学的構造を再構成する。
患者の動きは、復元過程における幾何学的アライメントを損なうため、運動アーティファクトが生じる。
本研究では,スキャン対象から独立して剛性運動の構造を認識する外観学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:49:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。