論文の概要: SDMTL: Semi-Decoupled Multi-grained Trajectory Learning for 3D human
motion prediction
- arxiv url: http://arxiv.org/abs/2010.05133v1
- Date: Sun, 11 Oct 2020 01:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 13:43:22.087252
- Title: SDMTL: Semi-Decoupled Multi-grained Trajectory Learning for 3D human
motion prediction
- Title(参考訳): sdmtl:半分離多粒軌道学習による3次元運動予測
- Authors: Xiaoli Liu and Jianqin Yin
- Abstract要約: 本研究では,未来の人間の動きを予測するために,新たなエンド・ツー・エンドネットワークであるセミ・デカップリング・マルチグラウンド・トラジェクティブ・ラーニング・ネットワークを提案する。
具体的には、細粒度や粗さを含む多粒度運動軌跡の時間的ダイナミクスを捉える。
階層的にBSMEを用いて多粒性軌道情報を学習し、各粒度における時間的進化方向の情報をキャプチャする。
- 参考スコア(独自算出の注目度): 5.581663772616127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting future human motion is critical for intelligent robots to interact
with humans in the real world, and human motion has the nature of
multi-granularity. However, most of the existing work either implicitly modeled
multi-granularity information via fixed modes or focused on modeling a single
granularity, making it hard to well capture this nature for accurate
predictions. In contrast, we propose a novel end-to-end network, Semi-Decoupled
Multi-grained Trajectory Learning network (SDMTL), to predict future poses,
which not only flexibly captures rich multi-grained trajectory information but
also aggregates multi-granularity information for predictions. Specifically, we
first introduce a Brain-inspired Semi-decoupled Motion-sensitive Encoding
module (BSME), effectively capturing spatiotemporal features in a
semi-decoupled manner. Then, we capture the temporal dynamics of motion
trajectory at multi-granularity, including fine granularity and coarse
granularity. We learn multi-grained trajectory information using BSMEs
hierarchically and further capture the information of temporal evolutional
directions at each granularity by gathering the outputs of BSMEs at each
granularity and applying temporal convolutions along the motion trajectory.
Next, the captured motion dynamics can be further enhanced by aggregating the
information of multi-granularity with a weighted summation scheme. Finally,
experimental results on two benchmarks, including Human3.6M and CMU-Mocap, show
that our method achieves state-of-the-art performance, demonstrating the
effectiveness of our proposed method. The code will be available if the paper
is accepted.
- Abstract(参考訳): 未来の人間の動きを予測することは、知的なロボットが現実世界で人間と対話する上で非常に重要である。
しかし、既存の作品の多くは固定モードによる暗黙的にマルチグラニュラ情報をモデル化するか、単一の粒度をモデル化することに集中しており、正確な予測のためにこの性質をうまく把握することは困難である。
そこで,本稿では,多結晶軌道情報を柔軟に取得するだけでなく,予測のための多粒度情報を集約する,新しいエンド・ツー・エンドネットワークであるsdmtlを提案する。
具体的には、まず脳にインスパイアされたセミデカップリング・モーションセンシティブ・エンコーディング・モジュール(BSME)を導入し、半デカップリング方式で時空間の特徴を効果的に捉えた。
次に, 微粒度と粗粒度を含む多粒度運動軌跡の時間的ダイナミクスを捉えた。
我々はBSMEを階層的に学習し、各粒度でBSMEの出力を収集し、運動軌跡に沿って時間的畳み込みを適用することにより、各粒度における時間的進化方向の情報を取得する。
次に、重み付け和スキームで多粒性の情報を集約することにより、捕捉された運動力学をさらに強化することができる。
最後に,Human3.6MとCMU-Mocapの2つのベンチマークによる実験結果から,提案手法の有効性を実証した。
論文が受け入れられれば、コードは利用可能になる。
関連論文リスト
- Multi-Transmotion: Pre-trained Model for Human Motion Prediction [68.87010221355223]
マルチトランスモーション(Multi-Transmotion)は、モダリティ事前トレーニング用に設計された革新的なトランスフォーマーベースのモデルである。
提案手法は,下流タスクにおける各種データセット間の競合性能を示す。
論文 参考訳(メタデータ) (2024-11-04T23:15:21Z) - MDMP: Multi-modal Diffusion for supervised Motion Predictions with uncertainty [7.402769693163035]
本稿では,運動予測のための多モード拡散モデルを提案する。
骨格データと行動のテキスト記述を統合し、定量性のある不確実性を伴う洗練された長期動作予測を生成する。
我々のモデルは、長期動作を正確に予測する上で、既存の生成技術よりも一貫して優れている。
論文 参考訳(メタデータ) (2024-10-04T18:49:00Z) - MoManifold: Learning to Measure 3D Human Motion via Decoupled Joint Acceleration Manifolds [20.83684434910106]
我々は、連続した高次元運動空間における可塑性人間の動きをモデル化した、新しい人間の動きであるMoManifoldを提案する。
具体的には、既存の限られた動きデータから人間の力学をモデル化する新しい結合加速法を提案する。
大規模な実験により、MoManifoldはいくつかの下流タスクにおいて既存のSOTAよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-01T15:00:16Z) - DiverseMotion: Towards Diverse Human Motion Generation via Discrete
Diffusion [70.33381660741861]
テキスト記述に基づく高品質な人間の動作を合成するための新しいアプローチであるDiverseMotionを提案する。
我々のDiverseMotionは、最先端のモーション品質と競争力の多様性を達成できることを示す。
論文 参考訳(メタデータ) (2023-09-04T05:43:48Z) - Spatio-Temporal Branching for Motion Prediction using Motion Increments [55.68088298632865]
HMP(Human Motion Prediction)はその多種多様な応用により、人気のある研究トピックとして浮上している。
従来の手法は手作りの機能と機械学習技術に依存している。
HMPのためのインクリメンタル情報を用いた時空間分岐ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-02T12:04:28Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Learning to Predict Diverse Human Motions from a Single Image via
Mixture Density Networks [9.06677862854201]
本研究では,混合密度ネットワーク(MDN)モデルを用いて,単一画像から将来の人間の動きを予測する新しい手法を提案する。
MDNのマルチモーダルな性質は、既存のディープヒューマンモーション予測アプローチとは対照的に、様々な将来のモーション仮説の生成を可能にしている。
訓練されたモデルでは、入力として画像を直接取り、与えられた条件を満たす複数の可視運動を生成する。
論文 参考訳(メタデータ) (2021-09-13T08:49:33Z) - Multi-grained Trajectory Graph Convolutional Networks for
Habit-unrelated Human Motion Prediction [4.070072825448614]
習慣非関連な人間の運動予測のために, マルチグレイングラフ畳み込みネットワークベースの軽量フレームワークを提案する。
左利きの動作を生成するための新しい動き生成法を提案し,人間の習慣に偏りのない動きをより良くモデル化した。
humantemporal3.6m と cmu mocap を含む挑戦的データセットの実験結果は、提案モデルが0.12倍以下のパラメータで最先端を上回っていることを示している。
論文 参考訳(メタデータ) (2020-12-23T09:41:50Z) - Temporal Pyramid Network for Pedestrian Trajectory Prediction with
Multi-Supervision [27.468166556263256]
本研究では,歩行者軌跡予測のための時間的ピラミッドネットワークを提案する。
我々の階層的なフレームワークは、上から下までよりリッチな時間情報を持つ特徴ピラミッドを構築し、様々なテンポでの動作をよりよく捉えます。
グローバルコンテキストの上位粗い特徴をリッチローカルコンテキストの下位細かい特徴に段階的にマージすることにより、この手法は軌道の長距離情報と短距離情報の両方を完全に活用することができる。
論文 参考訳(メタデータ) (2020-12-03T13:02:59Z) - Motion Prediction Using Temporal Inception Module [96.76721173517895]
人間の動作を符号化するTIM(Temporal Inception Module)を提案する。
本フレームワークは,異なる入力長に対して異なるカーネルサイズを用いて,畳み込み層を用いて入力埋め込みを生成する。
標準的な動き予測ベンチマークデータセットであるHuman3.6MとCMUのモーションキャプチャデータセットの実験結果から,我々の手法は一貫して技術手法の状態を上回ります。
論文 参考訳(メタデータ) (2020-10-06T20:26:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。