論文の概要: mnmDTW: An extension to Dynamic Time Warping for Camera-based Movement
Error Localization
- arxiv url: http://arxiv.org/abs/2310.09170v1
- Date: Fri, 13 Oct 2023 15:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 12:30:38.040707
- Title: mnmDTW: An extension to Dynamic Time Warping for Camera-based Movement
Error Localization
- Title(参考訳): mnmdtw: カメラによる移動誤差定位のための動的時間ウォーピングの拡張
- Authors: Sebastian Dill and Maurice Rohr
- Abstract要約: この概念実証では,エクササイズビデオからポーズ情報を抽出するためにコンピュータビジョン(CV)手法を用いる。
次に、ダイナミック・タイム・ウォーピング(DTW)の修正版を使用し、エクササイズのゴールド標準実行からの偏差を計算する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this proof of concept, we use Computer Vision (CV) methods to extract pose
information out of exercise videos. We then employ a modified version of
Dynamic Time Warping (DTW) to calculate the deviation from a gold standard
execution of the exercise. Specifically, we calculate the distance between each
body part individually to get a more precise measure for exercise accuracy. We
can show that exercise mistakes are clearly visible, identifiable and
localizable through this metric.
- Abstract(参考訳): この概念実証では,エクササイズビデオからポーズ情報を抽出するためにコンピュータビジョン(CV)手法を用いる。
次に、ダイナミック・タイム・ウォーピング(DTW)の修正版を使用し、エクササイズのゴールド標準実行からの偏差を計算する。
具体的には、各部位間の距離を個別に算出し、運動精度をより正確に測定する。
このメトリクスを通じて、エクササイズミスがはっきりと見え、識別可能で、ローカライズできることを示せる。
関連論文リスト
- Using Motion Cues to Supervise Single-Frame Body Pose and Shape
Estimation in Low Data Regimes [93.69730589828532]
十分な注釈付きトレーニングデータが得られた場合、教師付きディープラーニングアルゴリズムは、単一のカメラを使用して人間の身体のポーズと形状を推定する。
このような場合、必要な監視信号を提供するために、アノテーションのないビデオを簡単に作成できることが示される。
論文 参考訳(メタデータ) (2024-02-05T05:37:48Z) - Point Anywhere: Directed Object Estimation from Omnidirectional Images [10.152838128195468]
本研究では、全方位カメラを用いて、指さしアームのユーザ/オブジェクト位置制約と左右方向制約を除去する手法を提案する。
提案手法は,等方形画像から興味領域を抽出し,高精度な推定を可能にする。
論文 参考訳(メタデータ) (2023-08-02T08:32:43Z) - Physics-Based Object 6D-Pose Estimation during Non-Prehensile
Manipulation [3.660182910533372]
本研究では,物体の6次元ポーズを時間とともに追跡する手法を提案する。
ロボットジョイントコントロールを用いて、物体の動きを物理で予測する。
次に、この予測とカメラからの観測とを組み合わせて、オブジェクトのポーズをできるだけ正確に推定する。
論文 参考訳(メタデータ) (2022-11-24T12:44:33Z) - Fast and Robust Video-Based Exercise Classification via Body Pose
Tracking and Scalable Multivariate Time Series Classifiers [13.561233730881279]
本稿では,ビデオを用いたS&C演習の分類の応用について述べる。
そこで本研究では,BodyMTSという手法を用いて,映像を時系列に変換する手法を提案する。
その結果,BodyMTSの平均精度は87%であり,これはヒトドメインの専門家の精度よりも有意に高いことがわかった。
論文 参考訳(メタデータ) (2022-10-02T13:03:38Z) - Implicit Motion Handling for Video Camouflaged Object Detection [60.98467179649398]
本稿では,新しいビデオカモフラージュオブジェクト検出(VCOD)フレームワークを提案する。
短期的および長期的整合性を利用して、ビデオフレームからカモフラージュされたオブジェクトを検出する。
論文 参考訳(メタデータ) (2022-03-14T17:55:41Z) - OSSID: Online Self-Supervised Instance Detection by (and for) Pose
Estimation [17.78557307620686]
多くのロボット操作アルゴリズムにはリアルタイムなオブジェクトポーズ推定が必要である。
高速検出アルゴリズムの訓練を自己監督するために、スローゼロショットポーズ推定器を利用するOSSIDフレームワークを提案する。
この自己教師型トレーニングは,既存のゼロショット検出手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:55:56Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Consistent Depth of Moving Objects in Video [52.72092264848864]
移動カメラで撮影した通常の映像から任意の移動物体を含む動的シーンの深さを推定する手法を提案する。
我々は、この目的を、深度予測CNNを入力ビデオ全体にわたって補助的なシーンフロー予測でタンデムで訓練する新しいテストタイムトレーニングフレームワークで定式化する。
我々は、さまざまな移動物体(ペット、人、車)とカメラの動きを含む様々な挑戦的なビデオに対して、正確かつ時間的に一貫性のある結果を示す。
論文 参考訳(メタデータ) (2021-08-02T20:53:18Z) - Anchor Distance for 3D Multi-Object Distance Estimation from 2D Single
Shot [15.815583594196488]
シーン内の複数物体間の距離を,単写画像のみを用いてリアルタイムに推定する手法を提案する。
予測器がアンカー距離を使用する前に距離をキャッチし、距離に基づいてネットワークを訓練します。
提案手法は約30FPSの速度を実現し,既存の手法と比較して最低のRMSEを示す。
論文 参考訳(メタデータ) (2021-01-25T20:33:05Z) - Displacement-Invariant Cost Computation for Efficient Stereo Matching [122.94051630000934]
ディープラーニング手法は、前例のない不一致の精度を得ることによって、ステレオマッチングのリーダーボードを支配してきた。
しかし、その推測時間は一般的に540p画像の秒数で遅い。
本研究では,4次元特徴量を必要としないEmphdisplacement-invariant cost moduleを提案する。
論文 参考訳(メタデータ) (2020-12-01T23:58:16Z) - Learning Invariant Representations for Reinforcement Learning without
Reconstruction [98.33235415273562]
本研究では,表現学習が画像などのリッチな観察からの強化学習を,ドメイン知識や画素再構成に頼ることなく促進する方法について検討する。
シミュレーションメトリクスは、連続MDPの状態間の振る舞いの類似性を定量化する。
修正された視覚的 MuJoCo タスクを用いてタスク関連情報を無視する手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-06-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。