論文の概要: TrajeVAE -- Controllable Human Motion Generation from Trajectories
- arxiv url: http://arxiv.org/abs/2104.00351v1
- Date: Thu, 1 Apr 2021 09:12:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 01:02:58.981860
- Title: TrajeVAE -- Controllable Human Motion Generation from Trajectories
- Title(参考訳): TrajeVAE -- 軌道からの制御可能な人体運動生成
- Authors: Kacper Kania, Marek Kowalski, Tomasz Trzci\'nski
- Abstract要約: 3D人間のアニメーションのための汎用的なフレームワークを提供する新しいトランスフォーマーライクなアーキテクチャ、TrajeVAEを提案します。
TrajeVAEは、過去のポーズを精度で予測するトラジェクトリベースの参照手法や手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 20.531400859656042
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The generation of plausible and controllable 3D human motion animations is a
long-standing problem that often requires a manual intervention of skilled
artists. Existing machine learning approaches try to semi-automate this process
by allowing the user to input partial information about the future movement.
However, they are limited in two significant ways: they either base their pose
prediction on past prior frames with no additional control over the future
poses or allow the user to input only a single trajectory that precludes
fine-grained control over the output. To mitigate these two issues, we
reformulate the problem of future pose prediction into pose completion in space
and time where trajectories are represented as poses with missing joints. We
show that such a framework can generalize to other neural networks designed for
future pose prediction. Once trained in this framework, a model is capable of
predicting sequences from any number of trajectories. To leverage this notion,
we propose a novel transformer-like architecture, TrajeVAE, that provides a
versatile framework for 3D human animation. We demonstrate that TrajeVAE
outperforms trajectory-based reference approaches and methods that base their
predictions on past poses in terms of accuracy. We also show that it can
predict reasonable future poses even if provided only with an initial pose.
- Abstract(参考訳): 可塑性で制御可能な人間の3Dモーションアニメーションの生成は、しばしば熟練アーティストの手動介入を必要とする長年の問題である。
既存の機械学習アプローチは、ユーザーが将来の動きに関する部分的な情報を入力できるようにすることで、このプロセスを半自動化しようとする。
しかし、これらは2つの重要な方法で制限されている: 過去のフレームにポーズ予測をベースとしており、将来のポーズを制御していないか、ユーザが出力のきめ細かい制御を妨げている単一のトラジェクトリのみを入力できる。
この2つの問題を緩和するために, 将来のポーズ予測の問題を空間と時間におけるポーズ完了に再構成し, 軌道が欠落したジョイントでポーズとして表現する。
このようなフレームワークは、将来のポーズ予測のために設計された他のニューラルネットワークに一般化できることを示す。
このフレームワークでトレーニングされると、モデルは任意の数の軌跡からシーケンスを予測できる。
この概念を活用するために,3次元アニメーションのための多目的フレームワークを提供する新しいトランスフォーマー型アーキテクチャであるTrajeVAEを提案する。
TrajeVAEは、過去のポーズを精度で予測するトラジェクトリベースの参照手法や手法よりも優れていることを示す。
また、初期ポーズのみを設けた場合でも、合理的な将来のポーズを予測できることも示している。
関連論文リスト
- Past Movements-Guided Motion Representation Learning for Human Motion Prediction [0.0]
動作表現の強化を目的とした自己教師型学習フレームワークを提案する。
フレームワークは、まず、過去のシーケンスの自己再構成を通じてネットワークを事前訓練し、過去の動きに基づく将来のシーケンスのガイド付き再構築を行う。
提案手法は,Human3.6,3DPW,AMASSデータセットの平均予測誤差を8.8%削減する。
論文 参考訳(メタデータ) (2024-08-04T17:00:37Z) - Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - Learning Snippet-to-Motion Progression for Skeleton-based Human Motion
Prediction [14.988322340164391]
人間の動きを予測するために既存のグラフ畳み込みネットワークは、主にワンステップのスキームを採用している。
人間の動きはトランジションパターンを持ち、各トランジションを表すスニペットに分割することができる。
動作予測をサブタスクに分割するスニペット・ツー・モーション・マルチステージ・フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-26T07:36:38Z) - A generic diffusion-based approach for 3D human pose prediction in the
wild [68.00961210467479]
3D人間のポーズ予測、すなわち、過去の観察されたポーズのシーケンスが与えられた後の人間の3Dポーズのシーケンスを予測することは、困難な時間課題である。
本稿では,不完全な要素(予測や観測に関係しない)をノイズとして扱える統一的な定式化法を提案し,それらを認知し,妥当なポーズを予測する条件拡散モデルを提案する。
本研究は,4つの標準データセットについて検討し,現状よりも大幅に改善された。
論文 参考訳(メタデータ) (2022-10-11T17:59:54Z) - DMMGAN: Diverse Multi Motion Prediction of 3D Human Joints using
Attention-Based Generative Adverserial Network [9.247294820004143]
本稿では,多種多様な人間の動きを予測するためのトランスフォーマーに基づく生成モデルを提案する。
本モデルでは、まず、股関節に対する身体の姿勢を予測し、次に、textitHip予測モジュールが、予測された各ポーズフレームに対する股関節運動の軌跡を予測する。
本研究では,ヒトの動作予測において,股関節運動を伴う多動将来の軌跡を予測しながら,最先端の動作予測に優れることを示す。
論文 参考訳(メタデータ) (2022-09-13T23:22:33Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - Generating Smooth Pose Sequences for Diverse Human Motion Prediction [90.45823619796674]
本稿では,多様な動作予測と制御可能な動作予測のための統合された深部生成ネットワークを提案する。
標準ベンチマークデータセットであるHuman3.6MとHumanEva-Iの2つの実験は、我々のアプローチがサンプルの多様性と精度の両方において最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2021-08-19T00:58:00Z) - Future Frame Prediction for Robot-assisted Surgery [57.18185972461453]
本稿では,ロボット手術用ビデオシーケンスにおけるフレーム予測のためのtpg-vaeモデルを提案する。
コンテンツ配信に加えて、私たちのモデルは、手術ツールの小さな動きを処理するために斬新な運動分布を学習します。
論文 参考訳(メタデータ) (2021-03-18T15:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。