論文の概要: Muscles in Action
- arxiv url: http://arxiv.org/abs/2212.02978v3
- Date: Mon, 20 Mar 2023 19:10:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 01:20:05.473452
- Title: Muscles in Action
- Title(参考訳): 動作中の筋肉
- Authors: Mia Chiquier, Carl Vondrick
- Abstract要約: 筋活動を人間の動作表現に組み込むための新しいデータセットである筋行動データセット(MIA)を提示する。
我々は、ビデオから筋の活性化を予測する双方向表現を学び、逆に、筋の活性化から動きを再構築する。
筋肉をコンピュータービジョンシステムに組み込むことで、スポーツ、フィットネス、AR/VRといった仮想人間のよりリッチなモデルが可能になる。
- 参考スコア(独自算出の注目度): 22.482090207522358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion is created by, and constrained by, our muscles. We take a first
step at building computer vision methods that represent the internal muscle
activity that causes motion. We present a new dataset, Muscles in Action (MIA),
to learn to incorporate muscle activity into human motion representations. The
dataset consists of 12.5 hours of synchronized video and surface
electromyography (sEMG) data of 10 subjects performing various exercises. Using
this dataset, we learn a bidirectional representation that predicts muscle
activation from video, and conversely, reconstructs motion from muscle
activation. We evaluate our model on in-distribution subjects and exercises, as
well as on out-of-distribution subjects and exercises. We demonstrate how
advances in modeling both modalities jointly can serve as conditioning for
muscularly consistent motion generation. Putting muscles into computer vision
systems will enable richer models of virtual humans, with applications in
sports, fitness, and AR/VR.
- Abstract(参考訳): 人間の動きは筋肉によって作られ、制約されます。
運動を引き起こす筋活動を表すコンピュータビジョンの手法を構築するための第一歩を踏み出す。
筋活動を人間の運動表現に組み込むことを学ぶための新しいデータセットである筋活動(mia)を提案する。
このデータセットは、様々な運動を行う10人の被験者の12.5時間の同期ビデオと表面筋電図データで構成されている。
このデータセットを用いて,ビデオから筋活動を予測する双方向表現を学習し,逆に筋活動から運動を再構築する。
本研究は, 分布対象と運動, および分布対象と運動に関するモデルを評価する。
両モダリティを協調的にモデル化する手法が筋運動生成の条件付けとして有効であることを示す。
筋肉をコンピュータービジョンシステムに組み込むことで、スポーツ、フィットネス、AR/VRといった仮想人間のより豊かなモデルが可能になる。
関連論文リスト
- Muscles in Time: Learning to Understand Human Motion by Simulating Muscle Activations [64.98299559470503]
マッスル・イン・タイム (MinT) は、大規模な人工筋肉活性化データセットである。
227名の被験者と402名の模擬筋骨格をカバーする9時間以上のシミュレーションデータを含んでいる。
ヒトのポーズ配列からニューラルネットワークを用いた筋活動量推定の結果を示す。
論文 参考訳(メタデータ) (2024-10-31T18:28:53Z) - HUMOS: Human Motion Model Conditioned on Body Shape [54.20419874234214]
身体形状に基づく生成運動モデルを構築するための新しいアプローチを提案する。
非ペアデータを使ってこのモデルをトレーニングすることが可能であることを示す。
得られたモデルは、多種多様で、物理的に妥当で、動的に安定した人間の動きを生成する。
論文 参考訳(メタデータ) (2024-09-05T23:50:57Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Intelligent Knee Sleeves: A Real-time Multimodal Dataset for 3D Lower
Body Motion Estimation Using Smart Textile [2.2008680042670123]
本稿では,人間のポーズ推定のために,Intelligent Knee Sleevesの新たなペアを用いてベンチマークを収集したマルチモーダルデータセットを提案する。
本システムは,Knee Sleevesの時系列データと,可視化されたモーションキャプチャーカメラシステムからの対応する地上真実ラベルからなる同期データセットを利用する。
我々はこれらを用いて、異なる活動を行う個人のウェアラブルデータのみに基づく3次元人体モデルを生成する。
論文 参考訳(メタデータ) (2023-10-02T00:34:21Z) - Modelling Human Visual Motion Processing with Trainable Motion Energy
Sensing and a Self-attention Network [1.9458156037869137]
本稿では,生体とコンピュータの視覚モデルとのギャップを埋めることで,人間の動作知覚のイメージ計算可能なモデルを提案する。
このモデルアーキテクチャは、生体視覚システムにおける運動知覚のコア構造であるV1-MTの計算を捉えることを目的としている。
サイリコ神経生理学では、我々のモデルの単位応答は、運動プーリングやスピードチューニングに関する哺乳類の神経記録に類似していることが明らかになっている。
論文 参考訳(メタデータ) (2023-05-16T04:16:07Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - From Motion to Muscle [0.0]
筋活動は, 位置, 速度, 加速度などの運動特徴に基づいて人工的に生成できることを示す。
このモデルは、以前に訓練された運動に対して顕著な精度を達成し、これまで訓練されていない新しい運動に対して非常に高い精度を維持している。
論文 参考訳(メタデータ) (2022-01-27T13:30:17Z) - OstrichRL: A Musculoskeletal Ostrich Simulation to Study Bio-mechanical
Locomotion [8.849771760994273]
MuJoCoシミュレータに基づくオストリッチの3次元筋骨格シミュレーションを作成した。
このモデルは、実際の筋肉データを集めるために使用されるCTスキャンと解剖に基づいている。
また,レファレンス・モーション・トラッキングや,ネック付きリーチ・タスクなど,一連の強化学習タスクも提供する。
論文 参考訳(メタデータ) (2021-12-11T19:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。