論文の概要: Multi-grained Trajectory Graph Convolutional Networks for
Habit-unrelated Human Motion Prediction
- arxiv url: http://arxiv.org/abs/2012.12558v1
- Date: Wed, 23 Dec 2020 09:41:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:08:53.840041
- Title: Multi-grained Trajectory Graph Convolutional Networks for
Habit-unrelated Human Motion Prediction
- Title(参考訳): 軌道非関連動作予測のための多目的グラフ畳み込みネットワーク
- Authors: Jin Liu, Jianqin Yin
- Abstract要約: 習慣非関連な人間の運動予測のために, マルチグレイングラフ畳み込みネットワークベースの軽量フレームワークを提案する。
左利きの動作を生成するための新しい動き生成法を提案し,人間の習慣に偏りのない動きをより良くモデル化した。
humantemporal3.6m と cmu mocap を含む挑戦的データセットの実験結果は、提案モデルが0.12倍以下のパラメータで最先端を上回っていることを示している。
- 参考スコア(独自算出の注目度): 4.070072825448614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human motion prediction is an essential part for human-robot collaboration.
Unlike most of the existing methods mainly focusing on improving the
effectiveness of spatiotemporal modeling for accurate prediction, we take
effectiveness and efficiency into consideration, aiming at the prediction
quality, computational efficiency and the lightweight of the model. A
multi-grained trajectory graph convolutional networks based and lightweight
framework is proposed for habit-unrelated human motion prediction.
Specifically, we represent human motion as multi-grained trajectories,
including joint trajectory and sub-joint trajectory. Based on the advanced
representation, multi-grained trajectory graph convolutional networks are
proposed to explore the spatiotemporal dependencies at the multiple
granularities. Moreover, considering the right-handedness habit of the vast
majority of people, a new motion generation method is proposed to generate the
motion with left-handedness, to better model the motion with less bias to the
human habit. Experimental results on challenging datasets, including Human3.6M
and CMU Mocap, show that the proposed model outperforms state-of-the-art with
less than 0.12 times parameters, which demonstrates the effectiveness and
efficiency of our proposed method.
- Abstract(参考訳): 人間の動きの予測は、人間とロボットのコラボレーションに不可欠である。
高精度な予測のための時空間モデルの有効性向上に主眼を置いている既存の手法とは異なり,予測品質,計算効率,軽量化を目指して,有効性と効率を考慮に入れている。
習慣非関係な人間の動きを予測するために,多層トラジェクトリグラフ畳み込みネットワークと軽量フレームワークを提案する。
具体的には,関節軌跡とサブジョイント軌跡を含む多結晶軌道として,人間の運動を表現した。
先進的な表現に基づいて,複数粒度の時空間依存性を探索するために,多層トラジェクトリグラフ畳み込みネットワークを提案する。
また、大多数の人の右利きの習慣を考慮し、左利きの動作を発生させる新しい動き生成法を提案し、人間の習慣への偏りを少なくした動きをモデル化する。
human3.6m と cmu mocap を含む挑戦的データセットの実験結果は,提案手法の有効性と有効性を示す0.12倍のパラメータで,提案モデルが最先端技術を上回ることを示した。
関連論文リスト
- MotionRL: Align Text-to-Motion Generation to Human Preferences with Multi-Reward Reinforcement Learning [99.09906827676748]
我々は、テキスト・ツー・モーション生成タスクを最適化するために、Multi-Reward Reinforcement Learning(RL)を利用する最初のアプローチであるMotionRLを紹介する。
我々の新しいアプローチは、人間の知覚モデルに関する知識以前の人間の嗜好に基づいて、強化学習を用いて運動生成体を微調整する。
さらに、MotionRLは、テキストのアテンデンス、モーションクオリティ、人間の好みの最適性を近似する、新しい多目的最適化戦略を導入している。
論文 参考訳(メタデータ) (2024-10-09T03:27:14Z) - MDMP: Multi-modal Diffusion for supervised Motion Predictions with uncertainty [7.402769693163035]
本稿では,運動予測のための多モード拡散モデルを提案する。
骨格データと行動のテキスト記述を統合し、定量性のある不確実性を伴う洗練された長期動作予測を生成する。
我々のモデルは、長期動作を正確に予測する上で、既存の生成技術よりも一貫して優れている。
論文 参考訳(メタデータ) (2024-10-04T18:49:00Z) - MoManifold: Learning to Measure 3D Human Motion via Decoupled Joint Acceleration Manifolds [20.83684434910106]
我々は、連続した高次元運動空間における可塑性人間の動きをモデル化した、新しい人間の動きであるMoManifoldを提案する。
具体的には、既存の限られた動きデータから人間の力学をモデル化する新しい結合加速法を提案する。
大規模な実験により、MoManifoldはいくつかの下流タスクにおいて既存のSOTAよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-01T15:00:16Z) - HuTuMotion: Human-Tuned Navigation of Latent Motion Diffusion Models
with Minimal Feedback [46.744192144648764]
HuTuMotionは、数発の人間のフィードバックを活用して潜伏運動拡散モデルをナビゲートする、自然な人間の動きを生成する革新的なアプローチである。
以上の結果から, 少ないフィードバックを活用すれば, 広範囲なフィードバックによって達成されたものと同程度の性能が得られることが判明した。
論文 参考訳(メタデータ) (2023-12-19T15:13:08Z) - Motion Flow Matching for Human Motion Synthesis and Editing [75.13665467944314]
本研究では,効率的なサンプリングと効率性を備えた人体運動生成のための新しい生成モデルであるemphMotion Flow Matchingを提案する。
提案手法は, 従来の拡散モデルにおいて, サンプリングの複雑さを1000ステップから10ステップに減らし, テキスト・ツー・モーション・ジェネレーション・ベンチマークやアクション・ツー・モーション・ジェネレーション・ベンチマークで同等の性能を実現する。
論文 参考訳(メタデータ) (2023-12-14T12:57:35Z) - GDTS: Goal-Guided Diffusion Model with Tree Sampling for Multi-Modal Pedestrian Trajectory Prediction [15.731398013255179]
マルチモーダル軌道予測のための木サンプリングを用いたゴールガイド拡散モデルを提案する。
2段階のツリーサンプリングアルゴリズムが提案され、一般的な特徴を活用して推論時間を短縮し、マルチモーダル予測の精度を向上させる。
実験により,提案フレームワークは,公開データセットにおけるリアルタイム推論速度と同等の最先端性能を達成できることが実証された。
論文 参考訳(メタデータ) (2023-11-25T03:55:06Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Learning to Predict Diverse Human Motions from a Single Image via
Mixture Density Networks [9.06677862854201]
本研究では,混合密度ネットワーク(MDN)モデルを用いて,単一画像から将来の人間の動きを予測する新しい手法を提案する。
MDNのマルチモーダルな性質は、既存のディープヒューマンモーション予測アプローチとは対照的に、様々な将来のモーション仮説の生成を可能にしている。
訓練されたモデルでは、入力として画像を直接取り、与えられた条件を満たす複数の可視運動を生成する。
論文 参考訳(メタデータ) (2021-09-13T08:49:33Z) - Non-local Graph Convolutional Network for joint Activity Recognition and
Motion Prediction [2.580765958706854]
3次元骨格に基づく運動予測と行動認識は、人間の行動分析における2つの中間課題である。
本稿では, グラフ畳み込みニューラルネットワークとリカレントニューラルネットワークを併用した, 共同動作予測と活動認識のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-03T14:07:10Z) - Probabilistic Human Motion Prediction via A Bayesian Neural Network [71.16277790708529]
本稿では,人間の動作予測のための確率モデルを提案する。
我々のモデルは、観測された動きシーケンスが与えられたときに、いくつかの将来の動きを生成することができる。
我々は、大規模ベンチマークデータセットHuman3.6mに対して、我々のアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2021-07-14T09:05:33Z) - SGCN:Sparse Graph Convolution Network for Pedestrian Trajectory
Prediction [64.16212996247943]
歩行者軌道予測のためのスパースグラフ畳み込みネットワーク(SGCN)を提案する。
具体的には、SGCNはスパース指向の相互作用をスパース指向の空間グラフと明確にモデル化し、適応的な相互作用歩行者を捉える。
可視化は,歩行者の適応的相互作用とその運動特性を捉えることができることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。