論文の概要: Muscle Vision: Real Time Keypoint Based Pose Classification of Physical
Exercises
- arxiv url: http://arxiv.org/abs/2203.12111v1
- Date: Wed, 23 Mar 2022 00:55:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-25 09:29:42.024311
- Title: Muscle Vision: Real Time Keypoint Based Pose Classification of Physical
Exercises
- Title(参考訳): 筋視:実時間キーポイントに基づく身体運動のPose分類
- Authors: Alex Moran, Bart Gebka, Joshua Goldshteyn, Autumn Beyer, Nathan
Johnson, and Alexander Neuwirth
- Abstract要約: ビデオから外挿された3D人間のポーズ認識は、リアルタイムソフトウェアアプリケーションを可能にするまで進歩した。
本稿では,ライブビデオフィード上で人間のポーズ認識を行う新しい機械学習パイプラインとWebインターフェースを提案する。
- 参考スコア(独自算出の注目度): 52.77024349608834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in machine learning technology have enabled highly portable
and performant models for many common tasks, especially in image recognition.
One emerging field, 3D human pose recognition extrapolated from video, has now
advanced to the point of enabling real-time software applications with robust
enough output to support downstream machine learning tasks. In this work we
propose a new machine learning pipeline and web interface that performs human
pose recognition on a live video feed to detect when common exercises are
performed and classify them accordingly. We present a model interface capable
of webcam input with live display of classification results. Our main
contributions include a keypoint and time series based lightweight approach for
classifying a selected set of fitness exercises and a web-based software
application for obtaining and visualizing the results in real time.
- Abstract(参考訳): 最近の機械学習技術の進歩により、多くの一般的なタスク、特に画像認識において、非常にポータブルでパフォーマンスの高いモデルが実現されている。
ビデオから外挿した3d人間のポーズ認識は、下流の機械学習タスクをサポートするのに十分な出力を持つリアルタイムソフトウェアアプリケーションを可能にするために進歩した。
本研究では、ライブビデオフィード上で人間のポーズ認識を行う新しい機械学習パイプラインとWebインターフェースを提案し、共通のエクササイズが実行されることを検知し、それに従って分類する。
分類結果のライブ表示によるWebカメラ入力が可能なモデルインタフェースを提案する。
主なコントリビューションは、選択したフィットネスエクササイズを分類するためのキーポイントと時系列に基づく軽量アプローチと、結果をリアルタイムで取得および視覚化するためのWebベースのソフトウェアアプリケーションである。
関連論文リスト
- Is end-to-end learning enough for fitness activity recognition? [2.4273770300720012]
エンドツーエンドの学習は、ポーズ推定に基づいて、最先端のアクション認識パイプラインと競合することを示す。
また、エンド・ツー・エンドの学習は、リアルタイム反復数などの時間的にきめ細かなタスクを支援できることを示す。
論文 参考訳(メタデータ) (2023-05-14T16:00:03Z) - Frozen CLIP Models are Efficient Video Learners [86.73871814176795]
ビデオ認識はエンドツーエンドの学習パラダイムに支配されている。
Contrastive Vision-Language Pre-Trainingの最近の進歩は、視覚認識タスクのための新しいルートの道を開く。
高品質なビデオ認識モデルを直接トレーニングする効率的なフレームワークである、効率的なビデオ学習を提案する。
論文 参考訳(メタデータ) (2022-08-06T17:38:25Z) - A Spatio-Temporal Multilayer Perceptron for Gesture Recognition [70.34489104710366]
自律走行車におけるジェスチャー認識のための多層状態重み付きパーセプトロンを提案する。
提案手法の有望な性能を示すため,TCGおよびDrive&Actデータセットの評価を行った。
私たちは、そのリアルタイム能力と安定した実行を示すために、モデルを自動運転車にデプロイします。
論文 参考訳(メタデータ) (2022-04-25T08:42:47Z) - A Review of Deep Learning Techniques for Markerless Human Motion on
Synthetic Datasets [0.0]
近年,人間の姿勢推定がコンピュータビジョンコミュニティで注目を集めている。
2次元画像のみに基づくアニメーションの骨格を予測できるモデルを提案する。
実装プロセスは、独自のデータセットにDeepLabCutを使用して、多くの必要なステップを実行する。
論文 参考訳(メタデータ) (2022-01-07T15:42:50Z) - Which priors matter? Benchmarking models for learning latent dynamics [70.88999063639146]
古典力学の先行概念を機械学習モデルに統合する手法が提案されている。
これらのモデルの現在の機能について、精査する。
連続的および時間的可逆的ダイナミクスの使用は、すべてのクラスのモデルに恩恵をもたらす。
論文 参考訳(メタデータ) (2021-11-09T23:48:21Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - A Kinematic Bottleneck Approach For Pose Regression of Flexible Surgical
Instruments directly from Images [17.32860829016479]
ロボットから提供される運動情報のみをトレーニング時に活用し、自己監督画像に基づく手法を提案する。
時間を要する手動アノテーションの導入を避けるため、問題は自動エンコーダとして定式化される。
本手法の検証は, 柔軟ロボット内視鏡を用いて, 半合成, 幻, および生体内データセットを用いて行った。
論文 参考訳(メタデータ) (2021-02-28T18:41:18Z) - Multi-Modal Learning of Keypoint Predictive Models for Visual Object
Manipulation [6.853826783413853]
人間は、新しい環境で物体を操作するという点において、素晴らしい一般化能力を持っている。
ロボットのためのこのようなボディスキーマの学習方法は、まだ未解決の問題である。
本研究では,視覚的潜在表現から物体を把握する際に,ロボットの運動モデルを拡張する自己教師型アプローチを開発する。
論文 参考訳(メタデータ) (2020-11-08T01:04:59Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Complex Human Action Recognition in Live Videos Using Hybrid FR-DL
Method [1.027974860479791]
入力シーケンス中の代表フレームの自動選択により,前処理フェーズの課題に対処する。
本稿では,バックグラウンドサブトラクションとHOGを用いたハイブリッド手法を提案し,続いて深層ニューラルネットワークと骨格モデリング手法を適用した。
本稿では,このモデルをFR-DL(Feature Reduction & Deep Learning based action recognition method)と呼ぶ。
論文 参考訳(メタデータ) (2020-07-06T15:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。