論文の概要: Selecting the motion ground truth for loose-fitting wearables:
benchmarking optical MoCap methods
- arxiv url: http://arxiv.org/abs/2307.11881v2
- Date: Tue, 25 Jul 2023 05:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 19:52:49.192852
- Title: Selecting the motion ground truth for loose-fitting wearables:
benchmarking optical MoCap methods
- Title(参考訳): ゆるくフィットするウェアラブルのためのモーショングラウンド真理の選択:光学mocap法ベンチマーク
- Authors: Lala Shakti Swarup Ray, Bo Zhou, Sungho Suh, Paul Lukowicz
- Abstract要約: 本稿では,光マーカーベースおよびマーカーレスMoCapの性能評価を目的としたベンチマークDrapeMoCapBench(DMCB)を提案する。
カジュアルな緩い衣服のマーカーベースおよび低コストなマーカーレスMoCapの性能評価において、両アプローチは大きな性能損失を示した。
- 参考スコア(独自算出の注目度): 8.107762252448195
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To help smart wearable researchers choose the optimal ground truth methods
for motion capturing (MoCap) for all types of loose garments, we present a
benchmark, DrapeMoCapBench (DMCB), specifically designed to evaluate the
performance of optical marker-based and marker-less MoCap. High-cost
marker-based MoCap systems are well-known as precise golden standards. However,
a less well-known caveat is that they require skin-tight fitting markers on
bony areas to ensure the specified precision, making them questionable for
loose garments. On the other hand, marker-less MoCap methods powered by
computer vision models have matured over the years, which have meager costs as
smartphone cameras would suffice. To this end, DMCB uses large real-world
recorded MoCap datasets to perform parallel 3D physics simulations with a wide
range of diversities: six levels of drape from skin-tight to extremely draped
garments, three levels of motions and six body type - gender combinations to
benchmark state-of-the-art optical marker-based and marker-less MoCap methods
to identify the best-performing method in different scenarios. In assessing the
performance of marker-based and low-cost marker-less MoCap for casual loose
garments both approaches exhibit significant performance loss (>10cm), but for
everyday activities involving basic and fast motions, marker-less MoCap
slightly outperforms marker-based MoCap, making it a favorable and
cost-effective choice for wearable studies.
- Abstract(参考訳): スマートウェアラブルの研究者は、あらゆる種類のゆるい衣服に対して、モーションキャプチャー(MoCap)を最適に行うために、光学マーカーベースおよびマーカーレスMoCapの性能を評価するためのベンチマークであるDrapeMoCapBench(DMCB)を提案する。
高精度マーカーベースのMoCapシステムは、正確な黄金標準としてよく知られている。
しかし、あまり知られていないのは、特定の精度を確保するために骨の部位に皮膚に密着するマーカーが必要であり、ゆるい衣服に疑わしいという点である。
一方で、コンピュータビジョンモデルを利用したマーカーレスmocap手法は、ここ数年で成熟し、スマートフォンのカメラが十分であるほど、コストが低くなる。
この目的のためにdmcbは、大規模な現実世界で記録されたmocapデータセットを使用して、幅広い多様性を持つ並列3d物理シミュレーションを行う。スキンタイトから極端にドレープされた衣服まで6段階のドレープ、3段階のモーション、6種類のボディタイプ - 男女の組み合わせ - ベンチマークの光学マーカーベースとマーカーレスのmocap法により、異なるシナリオで最高のパフォーマンスの方法を識別する。
カジュアルな緩い衣服に対するマーカーベースおよび低コストなマーカーレスMoCapの性能評価において、両アプローチは大きな性能損失(>10cm)を示すが、基本的な動作と高速動作を含む日常的な活動ではマーカーレスMoCapはマーカーベースのMoCapよりわずかに優れており、ウェアラブル研究において好適かつ費用効果の高い選択である。
関連論文リスト
- $γ-$MoD: Exploring Mixture-of-Depth Adaptation for Multimodal Large Language Models [87.43596173378913]
我々は既存のMLLMに対して$gamma$-MoDという革新的な戦略を提案する。
$gamma$-MoD では、MLLM における MoD の展開を導くための新しい計量法が提案されている。
MLLMの計算空間を最大化する2つの新しい設計法を提案する。
論文 参考訳(メタデータ) (2024-10-17T17:59:53Z) - OpenCap markerless motion capture estimation of lower extremity kinematics and dynamics in cycling [0.0]
マーカレスモーションキャプチャは、従来のマーカーベースのシステムよりもいくつかの利点がある。
システムは人体のランドマークを直接検出することができ、手作業による処理やマーカーの配置に伴うエラーを減らすことができる。
本研究では,マーカーレスモーションキャプチャシステムであるOpenCapと,サイクリングバイオメカニクス評価における従来のマーカーベースシステムとの比較を行った。
論文 参考訳(メタデータ) (2024-08-20T15:57:40Z) - Towards Unstructured Unlabeled Optical Mocap: A Video Helps! [7.7149881834358345]
本稿では,マーカー識別,マーカーラベリング,ポーズ推定,人体再構築のための最適化パイプラインを提案する。
我々は、人間の身体のポーズと形状を強く視覚的に優先して、人間を再構築し、追跡するオフ・ザ・シェルフ手法を実行している。
提案手法は,全体および部分体再構築のための既存の3つのベンチマークデータセットにおいて,既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-05-15T03:45:05Z) - Noise-in, Bias-out: Balanced and Real-time MoCap Solving [13.897997236684283]
機械学習を用いて、雑音のないマーカー推定をリアルタイムで解く。
安価なセンサを用いても、ロバストなマーカーベースのモーションキャプチャ(MoCap)を提供する。
論文 参考訳(メタデータ) (2023-09-25T17:55:24Z) - GD-MAE: Generative Decoder for MAE Pre-training on LiDAR Point Clouds [72.60362979456035]
Masked Autoencoders (MAE)は、大規模な3Dポイントクラウドでの探索が難しい。
我々は,周囲のコンテキストを自動的にマージするためのtextbfGenerative textbfDecoder for MAE (GD-MAE)を提案する。
提案手法の有効性を, KITTI と ONCE の2つの大規模ベンチマークで実証した。
論文 参考訳(メタデータ) (2022-12-06T14:32:55Z) - HybridCap: Inertia-aid Monocular Capture of Challenging Human Motions [41.56735523771541]
軽量なハイブリッドモキャップ技術であるHybridCapを提案する。
カメラを4つの慣性測定ユニット(IMU)で拡張し、学習と最適化のフレームワークを組み込む。
フィットネスアクションからラテンダンスまで、挑戦的な動きをしっかりと処理できる。
論文 参考訳(メタデータ) (2022-03-17T12:30:17Z) - SOMA: Solving Optical Marker-Based MoCap Automatically [56.59083192247637]
我々はSOMAと呼ばれる新しいニューラルネットワークを訓練し、モカプポイントの雲をさまざまな数のポイントで取り、それらを大規模にラベル付けする。
Somaは、3Dボディの空間構造を学ぶために、自己注意要素を積み重ねたアーキテクチャを利用する。
4つのデータセットにまたがる8時間以上のアーカイブモキャップデータを自動的にラベル付けします。
論文 参考訳(メタデータ) (2021-10-09T02:27:27Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - EHSOD: CAM-Guided End-to-end Hybrid-Supervised Object Detection with
Cascade Refinement [53.69674636044927]
本稿では,エンド・ツー・エンドのハイブリッド型オブジェクト検出システムであるEHSODについて述べる。
完全なアノテートと弱いアノテートの両方で、ワンショットでトレーニングすることができる。
完全なアノテートされたデータの30%しか持たない複数のオブジェクト検出ベンチマークで、同等の結果が得られる。
論文 参考訳(メタデータ) (2020-02-18T08:04:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。